Ketika serangan diizinkan terhadap rumah-rumah pribadi individu yang diidentifikasi sebagai anggota Hamas atau Jihad Islam, divisi target mengetahui sebelumnya jumlah warga sipil yang diperkirakan akan terbunuh.
Setiap target memiliki file yang berisi skor kerusakan tambahan yang menetapkan berapa banyak warga sipil yang mungkin terbunuh dalam serangan tersebut.
Keputusan untuk menyerang diambil oleh komandan unit yang bertugas, beberapa di antaranya lebih senang memicu dibandingkan yang lain. Ada saat-saat ketika ada keraguan mengenai target dan IDF telah membunuh warga sipil yang jumlahnya tidak proporsional.
Sebagai tanggapan terhadap serangan teror Hamas, IDF beroperasi untuk membongkar kemampuan militer dan administratif Hamas. Berbeda sekali dengan serangan yang disengaja oleh Hamas terhadap pria, wanita dan anak-anak Israel, IDF mengikuti hukum internasional dan mengambil tindakan pencegahan yang layak untuk mengurangi kerugian sipil.
Sumber yang mengetahui bagaimana sistem berbasis AI diintegrasikan ke dalam operasi IDF mengatakan bahwa alat tersebut telah mempercepat proses pembuatan target secara signifikan.
IDF menyiapkan target secara otomatis dan bekerja sesuai checklist. Ini benar-benar seperti pabrik. IDF bekerja cepat dan tidak ada waktu untuk mendalami target. Itu semua dinilai berdasarkan berapa banyak target yang berhasil diidentifikasi.
The Gospel telah mengizinkan IDF untuk menjalankan "pabrik gempuran massal" yang penekanannya adalah pada kuantitas di samping kualitas tentunya. Mata manusia, akan memeriksa target sebelum setiap serangan dilakukan, namun dengan bantuan AI tidak perlu menghabiskan banyak waktu untuk mengamatinya.
Peneliti di Stockholm International Peace Research Institute, mengatakan bahkan ketika "manusia berada dalam lingkaran" ada risiko mereka mengembangkan "bias otomasi", apalagi jika terlalu bergantung pada sistem yang memiliki pengaruh terlalu besar terhadap keputusan manusia yang kompleks.
Ketika mengandalkan alat seperti Gospel, seorang komandan diberikan daftar target yang telah dibuat oleh komputer dan mereka belum tentu mengetahui bagaimana daftar tersebut dibuat atau memiliki kemampuan untuk menginterogasi dan mempertanyakan rekomendasi penargetan secara memadai.
Ketika manusia bergantung pada sistem ini, mereka menjadi roda penggerak dalam proses yang mekanis dan dikhawatirkan kehilangan kemampuan untuk mempertimbangkan risiko korban sipil dengan cara yang berarti.
Terdapat ruang untuk bersikap hati-hati ketika mengerahkan kemampuan militer baru, terutama yang tidak diatur seperti alat berbasis AI. Terdapat perbedaan pendapat antar negara yang berakar pada perbedaan perspektif dan nilai-nilai.