Lihat ke Halaman Asli

5 AI yang Sangat Berbahaya di Dunia

Diperbarui: 5 Agustus 2024   19:21

Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.

Sumber Gambar : Winna Wandayani - Ilustrasi korban deepfake porn 

Teknologi kecerdasan buatan (AI) telah membawa banyak manfaat bagi masyarakat, mulai dari meningkatkan efisiensi bisnis hingga membantu dalam bidang medis. Namun, ada sisi gelap dari AI yang juga perlu diperhatikan. Lima jenis AI berikut ini dianggap sangat berbahaya karena potensi mereka untuk disalahgunakan atau menyebabkan kerugian besar. Artikel ini akan menguraikan perkembangan dari akar hingga saat ini, disertai dengan kasus-kasus faktual yang telah terjadi.

1. Deepfake AI

Deepfake adalah teknologi yang menggunakan AI untuk menghasilkan video atau audio palsu yang sangat realistis. Teknologi ini pertama kali mendapat perhatian luas pada tahun 2017 ketika video palsu selebriti mulai bermunculan di internet. Deepfake menggunakan algoritma pembelajaran mesin, khususnya jaringan saraf tiruan yang dikenal sebagai Generative Adversarial Networks (GANs), untuk membuat media palsu yang sangat meyakinkan.

Kasus-kasus:

  • Kasus Obama 2018: BuzzFeed merilis sebuah video deepfake dari Presiden Barack Obama yang menyampaikan pesan palsu. Video ini dibuat oleh Jordan Peele menggunakan teknologi dari Deepfake Lab untuk menunjukkan betapa mudahnya menyebarkan disinformasi melalui deepfake.
  • Kasus Pemerasan: Pada tahun 2019, CEO sebuah perusahaan Inggris menjadi korban pemerasan setelah menerima panggilan telepon yang menggunakan deepfake suara dari atasannya, menuntut transfer dana sebesar 220,000.
  • Kasus Video Porno Palsu: Banyak selebriti wanita, termasuk Scarlett Johansson, menjadi korban ketika video porno palsu mereka muncul di internet, dibuat menggunakan teknologi deepfake. Ini telah menyebabkan kerugian besar pada reputasi dan privasi individu yang terlibat.
  • Kasus Politisi Palsu: Pada tahun 2020, sebuah video deepfake dari Presiden Meksiko Andrs Manuel Lpez Obrador yang mengumumkan keputusan politik palsu tersebar luas, menyebabkan kebingungan di kalangan masyarakat.

2. Autonomous Weapons

Sumber Gambar : Col Deepak Kumar - Artificial Intelligence In Military Systems

Senjata otonom adalah sistem senjata yang menggunakan AI untuk memilih dan menyerang target tanpa campur tangan manusia. Teknologi ini berkembang pesat dalam dua dekade terakhir dengan kemajuan dalam AI dan robotika. Negara-negara maju seperti Amerika Serikat, Rusia, dan China telah mengembangkan berbagai jenis senjata otonom termasuk drone dan sistem pertahanan.

Kasus-kasus:

  • Kasus Libya 2020: Laporan PBB pada 2021 mengindikasikan bahwa drone otonom Kargu-2 yang dikembangkan oleh perusahaan Turki STM mungkin telah digunakan untuk menyerang target tanpa campur tangan manusia di Libya. Ini adalah salah satu contoh nyata penggunaan senjata otonom dalam konflik bersenjata.
  • Kasus Militer AS: Amerika Serikat telah menggunakan drone bersenjata otonom dalam operasi militer di Timur Tengah, yang menimbulkan kontroversi tentang etika dan akurasi dalam pemilihan target.
  • Kasus Rusia: Rusia mengembangkan senjata otonom seperti tank tanpa awak dan drone pemburu yang mampu menyerang secara mandiri, meningkatkan ketegangan dalam perlombaan senjata global.
  • Protes Aktivis: Aktivis dan organisasi hak asasi manusia telah memprotes penggunaan senjata otonom, mengkhawatirkan potensi kesalahan fatal dan kurangnya akuntabilitas.

3. AI in Cybersecurity Attacks

Sumber Gambar : Red Asia Insurance - Ancaman Siber Paling Kuat

Halaman Selanjutnya


BERI NILAI

Bagaimana reaksi Anda tentang artikel ini?

BERI KOMENTAR

Kirim

Konten Terkait


Video Pilihan

Terpopuler

Nilai Tertinggi

Feature Article

Terbaru

Headline