Mohon tunggu...
Archilovina Devanie
Archilovina Devanie Mohon Tunggu... Mahasiswa - Mahasiswa

Halo! saya Archilovina Devanie, seorang mahasiswa dari Universitas Airlangga

Selanjutnya

Tutup

Artificial intelligence

Evolusi Peperangan: Bisakah Kita Mempercayai AI dengan Senjata Mematikan?

18 Juni 2024   12:35 Diperbarui: 18 Juni 2024   12:37 38
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Artificial Intelligence. Sumber ilustrasi: pixabay.com/Gerd Altmann

Prospek senjata otonom yang mematikan membayangi dunia kita seperti awan yang menghancurkan jiwa —Bertahun-tahun yang lalu, beberapa pengusaha, insinyur, dan ilmuwan paling terkenal di dunia dalam industri teknologi memperingatkan tentang bahaya kecerdasan buatan atau Artificial Intelligence dan senjata otonom yang mematikan. Lebih dari 150 perusahaan dan 2.400 individu dari 90 negara menandatangani janji senjata otonom yang mematikan pada Konferensi Gabungan Internasional tentang Kecerdasan Buatan tahun 2018. Pada tahun 2020, lebih dari 4.500 peneliti kecerdasan buatan setuju untuk mengambil kesempatan untuk melarang senjata otonom yang mematikan.

            Seiring dengan semakin canggihnya teknologi, kecerdasan buatan pun semakin maju, dan siap memainkan peran utama dalam setiap industri, termasuk industri militer yang digunakan untuk pembuatan senjata yang biasa disebut dengan senjata otonom yang mematikan. Hal inilah yang kemudian menjadi kontroversi apakah senjata otonom tersebut dapat memberikan hasil yang baik atau tidak?

            Senjata otonom yang mematikan pada dasarnya adalah sistem senjata dengan kecerdasan buatan yang dapat memilih, menemukan lokasi, mengidentifikasi, dan menyerang target tanpa campur tangan manusia, namun mengikuti rangkaian sensor dan algoritma komputer.

            Di total 12 negara termasuk Tiongkok, Israel, Rusia, Korea Selatan, Inggris, dan Amerika Serikat, serta banyak negara lainnya, terdapat lebih dari 130 sistem militer yang dapat melacak target secara mandiri. Senjata-senjata ini termasuk sistem pertahanan udara yang menembak ketika proyektil masuk terdeteksi, amunisi yang berkeliaran di langit mencari area tertentu untuk kategori target yang telah dipilih sebelumnya, dan senjata penjaga di perbatasan militer yang menggunakan kamera dan pencitraan termal. Senjata-senjata ini dapat menyerap lebih banyak informasi dibandingkan manusia, memahaminya lebih cepat daripada manusia, ditempatkan di area yang mungkin tidak dapat diakses oleh sistem manusia, atau mungkin berisiko, atau terlalu mahal.

            Lalu apa yang membuat apa yang disebut sebagai senjata otonom yang mematikan ini menjadi hal yang kontroversial hingga saat ini? Ada banyak alasan mengapa masyarakat menentang pengembangan dan penggunaan senjata otonom yang mematikan.

            Pertama, sistem kecerdasan buatan ketika dihadapkan pada masukan jenis baru, mereka cenderung berperilaku sangat tidak terduga. Para peneliti telah mengalami perilaku dalam jaringan yang hanya berisi kecerdasan buatan yang menjadi sulit dikendalikan dan dipahami. Misalnya, algoritma yang mulai bersaing satu sama lain dan menggunakan taktik baru, algoritma yang mengembangkan dirinya sendiri, metode enkripsi baru, atau algoritma yang menciptakan bahasa rahasianya, tidak diminta dan tidak dapat dipahami oleh pengembang algoritma. Dalam setiap kasus, algoritme bekerja secara berbeda dari yang diharapkan dan menunjukkan perilaku yang tidak diharapkan. Bayangkan apa yang terjadi ketika kecerdasan buatan yang terkait dengan senjata mulai berperilaku tidak terduga.

            Kedua, senjata otonom yang mematikan dapat dikembangkan dengan biaya murah, tidak memerlukan bahan mentah yang mahal atau sulit diperoleh, dan mudah diretas atau jatuh ke tangan yang salah.

            Terakhir, potensi memicu perlombaan senjata global. Tampaknya melakukan perlombaan senjata dengan senjata otonom yang mematikan akan mengakibatkan penurunan drastis dan mungkin tidak dapat diubah lagi dalam hal keamanan internasional, nasional, komunal, dan pribadi.

Kesimpulannya, senjata otonom yang mematikan ini masih belum bisa memberikan hasil seperti apa, apakah akan berjalan lancar seperti yang kita harapkan atau tidak. Selain itu, kecerdasan buatan seharusnya digunakan untuk menyelamatkan dan meningkatkan kehidupan manusia. Misalnya, manusia menggunakan kecerdasan buatan dalam robot yang diprogram untuk membantu penderita penyakit kronis agar memiliki kualitas hidup yang lebih baik.

            Permasalahan utamanya adalah manusia harus mempunyai kendali yang cukup untuk mengambil keputusan hukum karena manusia menerapkan hukum dan mesin hanya menjalankan fungsinya. Masyarakat perlu menghentikan penggunaan kecerdasan buatan yang buruk, yang terpenting adalah berhenti menggunakannya sebagai senjata.

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun