Teknologi kecerdasan buatan (AI) telah membawa banyak manfaat bagi masyarakat, mulai dari meningkatkan efisiensi bisnis hingga membantu dalam bidang medis. Namun, ada sisi gelap dari AI yang juga perlu diperhatikan. Lima jenis AI berikut ini dianggap sangat berbahaya karena potensi mereka untuk disalahgunakan atau menyebabkan kerugian besar. Artikel ini akan menguraikan perkembangan dari akar hingga saat ini, disertai dengan kasus-kasus faktual yang telah terjadi.
1. Deepfake AI
Deepfake adalah teknologi yang menggunakan AI untuk menghasilkan video atau audio palsu yang sangat realistis. Teknologi ini pertama kali mendapat perhatian luas pada tahun 2017 ketika video palsu selebriti mulai bermunculan di internet. Deepfake menggunakan algoritma pembelajaran mesin, khususnya jaringan saraf tiruan yang dikenal sebagai Generative Adversarial Networks (GANs), untuk membuat media palsu yang sangat meyakinkan.
Kasus-kasus:
- Kasus Obama 2018: BuzzFeed merilis sebuah video deepfake dari Presiden Barack Obama yang menyampaikan pesan palsu. Video ini dibuat oleh Jordan Peele menggunakan teknologi dari Deepfake Lab untuk menunjukkan betapa mudahnya menyebarkan disinformasi melalui deepfake.
- Kasus Pemerasan: Pada tahun 2019, CEO sebuah perusahaan Inggris menjadi korban pemerasan setelah menerima panggilan telepon yang menggunakan deepfake suara dari atasannya, menuntut transfer dana sebesar 220,000.
- Kasus Video Porno Palsu: Banyak selebriti wanita, termasuk Scarlett Johansson, menjadi korban ketika video porno palsu mereka muncul di internet, dibuat menggunakan teknologi deepfake. Ini telah menyebabkan kerugian besar pada reputasi dan privasi individu yang terlibat.
- Kasus Politisi Palsu: Pada tahun 2020, sebuah video deepfake dari Presiden Meksiko Andrs Manuel Lpez Obrador yang mengumumkan keputusan politik palsu tersebar luas, menyebabkan kebingungan di kalangan masyarakat.
2. Autonomous Weapons
Senjata otonom adalah sistem senjata yang menggunakan AI untuk memilih dan menyerang target tanpa campur tangan manusia. Teknologi ini berkembang pesat dalam dua dekade terakhir dengan kemajuan dalam AI dan robotika. Negara-negara maju seperti Amerika Serikat, Rusia, dan China telah mengembangkan berbagai jenis senjata otonom termasuk drone dan sistem pertahanan.
Kasus-kasus:
- Kasus Libya 2020: Laporan PBB pada 2021 mengindikasikan bahwa drone otonom Kargu-2 yang dikembangkan oleh perusahaan Turki STM mungkin telah digunakan untuk menyerang target tanpa campur tangan manusia di Libya. Ini adalah salah satu contoh nyata penggunaan senjata otonom dalam konflik bersenjata.
- Kasus Militer AS: Amerika Serikat telah menggunakan drone bersenjata otonom dalam operasi militer di Timur Tengah, yang menimbulkan kontroversi tentang etika dan akurasi dalam pemilihan target.
- Kasus Rusia: Rusia mengembangkan senjata otonom seperti tank tanpa awak dan drone pemburu yang mampu menyerang secara mandiri, meningkatkan ketegangan dalam perlombaan senjata global.
- Protes Aktivis: Aktivis dan organisasi hak asasi manusia telah memprotes penggunaan senjata otonom, mengkhawatirkan potensi kesalahan fatal dan kurangnya akuntabilitas.
3. AI in Cybersecurity Attacks
AI dalam serangan siber telah menjadi ancaman yang semakin nyata. Penjahat siber menggunakan AI untuk mengotomatisasi serangan, meningkatkan skala dan efektivitas mereka. Algoritma AI dapat digunakan untuk menemukan celah keamanan, mengirim phishing yang lebih canggih, dan bahkan menciptakan malware yang sulit dideteksi.
Kasus-kasus:
- DeepLocker oleh IBM: Pada tahun 2018, IBM mempresentasikan "DeepLocker" sebagai bukti konsep bagaimana malware berbasis AI dapat menyembunyikan dirinya sampai kondisi tertentu terpenuhi untuk menyerang. Ini menunjukkan potensi ancaman yang serius dari malware AI.
- Serangan Phishing: Pada tahun 2020, sebuah serangan phishing yang didukung AI berhasil menipu ribuan karyawan dari berbagai perusahaan besar, mengakibatkan kerugian finansial yang signifikan.
- Serangan pada Bank: AI digunakan dalam serangan siber yang menargetkan sistem perbankan di Bangladesh pada tahun 2016, yang menyebabkan pencurian dana lebih dari $81 juta.
- Penipuan Asuransi: Pada tahun 2019, perusahaan asuransi di AS menjadi korban penipuan yang melibatkan AI, di mana klaim palsu yang sangat canggih diajukan dan disetujui oleh sistem otomatis.
4. Surveillance AI
Teknologi pengawasan yang menggunakan AI telah berkembang pesat, terutama di negara-negara dengan kebijakan pengawasan ketat. AI digunakan untuk pengenalan wajah, analisis perilaku, dan pemantauan aktivitas massa. Teknologi ini sering kali digunakan tanpa persetujuan atau kesadaran dari individu yang dipantau.
Kasus-kasus:
- Pengawasan di Xinjiang, China: Pemerintah China menggunakan teknologi pengawasan AI untuk memantau populasi Uighur di Xinjiang. Sistem ini menggunakan pengenalan wajah dan algoritma prediktif untuk mengidentifikasi dan melacak aktivitas mereka. Banyak laporan hak asasi manusia yang mengungkapkan penyalahgunaan teknologi ini untuk penindasan.
- Kekhawatiran di AS dan Eropa: Di Amerika Serikat dan beberapa negara Eropa, penggunaan teknologi pengawasan AI oleh penegak hukum telah menimbulkan kekhawatiran tentang privasi dan kebebasan sipil.
- Skandal Clearview AI: Pada tahun 2020, perusahaan Clearview AI mendapat kecaman setelah terungkap bahwa mereka telah mengumpulkan miliaran foto dari internet tanpa izin untuk membangun database pengenalan wajah yang digunakan oleh penegak hukum.
- Kasus Hong Kong: Penggunaan pengenalan wajah oleh pemerintah Hong Kong untuk mengidentifikasi dan menangkap pengunjuk rasa pro-demokrasi menimbulkan kekhawatiran global tentang penyalahgunaan teknologi pengawasan.
5. Biased AI Algorithms
Algoritma AI sering kali menunjukkan bias yang tidak disengaja, yang mencerminkan bias dalam data yang digunakan untuk melatih mereka. Ini bisa menyebabkan diskriminasi dalam berbagai bidang seperti penegakan hukum, perekrutan kerja, dan pemberian kredit.
Kasus-kasus:
- COMPAS di AS: Pada tahun 2016, investigasi oleh ProPublica menemukan bahwa algoritma COMPAS yang digunakan untuk menilai risiko pelaku kriminal di AS cenderung memberikan skor risiko yang lebih tinggi kepada terdakwa kulit hitam dibandingkan dengan terdakwa kulit putih. Ini menunjukkan potensi diskriminasi sistemik oleh algoritma AI.
- Rekrutmen oleh Amazon: Pada tahun 2018, Amazon menghentikan penggunaan alat perekrutan berbasis AI setelah menemukan bahwa sistem tersebut menunjukkan bias terhadap wanita, memberikan skor lebih rendah kepada kandidat wanita dibandingkan dengan pria.
- Kasus Pemberian Kredit: Beberapa bank di AS menggunakan algoritma AI untuk mengevaluasi kelayakan kredit yang secara tidak adil memberikan skor lebih rendah kepada pemohon dari kelompok minoritas.
- Penegakan Hukum di Inggris: Sebuah studi pada 2019 menemukan bahwa algoritma pengenalan wajah yang digunakan oleh polisi di Inggris memiliki tingkat kesalahan yang lebih tinggi dalam mengidentifikasi orang kulit hitam dan etnis minoritas lainnya.
Kesimpulan
Teknologi AI memiliki potensi untuk mengubah dunia dengan cara yang luar biasa, namun juga membawa risiko yang signifikan. Lima jenis AI yang dijelaskan di atas menunjukkan bagaimana teknologi ini bisa disalahgunakan atau menyebabkan kerugian besar. Penting bagi masyarakat dan pembuat kebijakan untuk memahami risiko ini dan mengambil langkah-langkah untuk mengatur dan mengawasi penggunaan AI, guna memastikan bahwa manfaatnya dapat dimaksimalkan tanpa mengabaikan potensi bahayanya.
Referensi :
1. Â Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016, May 23). Machine Bias. ProPublica.
2. Â BBC News. (2019, July 5). China 'hunting down' Uighurs who fled abroad. BBC News.
3. Â Cascella, M., Paganini, G., & Huang, A. (2018, August 8). DeepLocker: How AI Can Power a Stealthy New Breed of Malware. IBM Research.
4. Â Cellan-Jones, R. (2019, July 29). Met police trials of facial recognition technology branded 'failure'. BBC News.
5. Â Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.
6. Â Harwell, D. (2019, January 24). Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'. The Washington Post.
7. Â He, L., & Bansal, P. (2016, July 21). Bangladesh cyber heist was 'carried out by multiple groups'. Reuters.
8. Â Hern, A. (2020, June 4). Privacy concerns mount over increasing use of surveillance tech to enforce lockdown. The Guardian.
9. Â Hill, K. (2020, January 18). The Secretive Company That Might End Privacy as We Know It. The New York Times.
10. Â Human Rights Watch. (2020, August 10). 'Killer Robots': Activists Urge Government Action. Human Rights Watch.
11. Â Lohr, S. (2020, November 25). The Ethical Dilemma Facing Silicon Valley's Next Generation. The New York Times.
12. Â McKie, R. (2021, May 28). 'Killer robots' used in Libya conflict, UN report reveals. The Guardian.
13. Â Moscow Times Staff. (2019, September 12). Russia Developing AI Robot Tanks. The Moscow Times.
14. Â Mozur, P., Krolik, A., & McCabe, D. (2019, August 25). Hong Kong Protesters Face Off Against Facial Recognition. The New York Times.
15. Â Murray, K. (2019, March 14). How AI can help in detecting insurance fraud. Insurance Business America.
16. Â Palmer, D. (2020, January 30). AI-powered phishing attacks are here -- and they're scary. ZDNet.
17. Â Salazar, L. (2020, October 15). El falso video de Lpez Obrador y los riesgos de los 'deepfakes'. El Pas.
18. Â Sanger, D. E., & Schmitt, E. (2015, November 21). Drone Strikes Reveal Uncomfortable Truth: U.S. Is Often Unsure About Who Will Die. The New York Times.
19. Â Silverman, C. (2018, April 17). This Is The Future Of Fake News.
20. Â Stupp, C. (2019, August 30). Fraudsters Used AI to Mimic CEO's Voice in Unusual Cybercrime Case. The Wall Street Journal.
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H