Dalam beberapa tahun terakhir, kecerdasan buatan (AI) telah menjadi salah satu inovasi teknologi yang paling revolusioner. AI hadir dengan janji untuk membuat hidup lebih mudah, membantu kita dalam mengambil keputusan, hingga memajukan ilmu pengetahuan dengan cara yang belum pernah kita bayangkan sebelumnya. Namun, seperti teknologi lainnya, AI memiliki dua sisi, negatif dan positif. Ying dan Yang. Salah satu sisi gelap dari AI yang semakin mendapat perhatian adalah kemampuannya dalam menyebarkan disinformasi, atau berita bohong secara masif. Hal ini tentu mengancam integritas informasi publik dan memicu keresahan di tengah masyarakat.
Lalu, bagaimana AI dapat digunakan untuk menyebarkan hoaks? Apakah ini hanya masalah teknologi yang berkembang terlalu cepat, atau lebih dari itu? Mari kita selami lebih dalam.
Sebagai alat yang dirancang untuk memproses dan menganalisis data dalam jumlah besar dengan cepat dan tidak lupa, AI memiliki potensi yang luar biasa untuk dioptimalkan dalam bebagai aspek kehidupan. Namun, sayangnya, teknologi ini juga dapat dimanfaatkan untuk tujuan yang tidak etis, salah satunya adalah menyebarkan berita bohong.
AI bisa menghasilkan konten yang tampak valid dan meyakinkan dalam jumlah besar, serta mendistribusikannya dengan cepat melalui platform digital. Sejumlah algoritma AI yang canggih kini mampu meniru gaya penulisan manusia, menciptakan picture palsu, hingga memodifikasi video untuk 'menceritakan' peristiwa yang tidak pernah terjadi. Inilah yang membuat disinformasi berbasis AI menjadi semakin sulit dikenali oleh manusia / publik.
Bagaimana mekanismenya? Bayangkan sebuah sistem AI yang diberi akses ke ribuan artikel berita, laporan investigasi, dan video. Sistem ini dapat menganalisis pola, kemudian menciptakan narasi baru yang tampak sah, namun sesungguhnya penuh dengan informasi yang salah. Konten semacam ini bisa dengan mudah dibagikan di medsos atau web yang kurang terverifikasi, menyebabkan kebingungan di kalangan masyarakat.
Contoh Kasus Disinformasi Berbasis AI
Untuk memberikan gambaran lebih jelas, berikut adalah beberapa contoh bagaimana AI dapat digunakan untuk menyebarkan disinformasi:
 1. Deep Fake. Salah satu contoh paling terkenal dari disinformasi berbasis AI adalah teknologi deep fake. Teknologi ini memungkinkan AI untuk membuat video di mana seseorang terlihat berbicara atau melakukan sesuatu yang sebenarnya tidak pernah terjadi. Misalnya, dengan deep fake, AI dapat menghasilkan video seorang politisi yang tampak memberikan pernyataan kontroversial, padahal sebenarnya dia tidak pernah mengatakannya. Teknologi ini dapat digunakan untuk menyebarkan hoaks politik, merusak reputasi seseorang, atau bahkan memanipulasi opini publik.
Deep fake juga dapat digunakan untuk menciptakan konten palsu yang tampak autentik dalam konteks yang lebih personal. Misalnya, seseorang bisa menjadi korban penyebaran video palsu yang menggambarkan tindakan yang tidak mereka lakukan, menimbulkan kerugian psikologis dan sosial yang signifikan.
 2. Generasi Teks Otomatis. AI juga mampu menciptakan teks dalam jumlah besar, termasuk berita atau artikel yang tampak seperti laporan investigasi mendalam. Dengan memanfaatkan algoritma seperti GPT-3 atau model lainnya, AI dapat menghasilkan narasi yang tampaknya benar dan mendetail, tetapi sesungguhnya dipenuhi dengan informasi palsu. Contohnya, AI dapat digunakan untuk menulis laporan tentang "temuan ilmiah" yang tidak pernah ada, yang kemudian bisa viral dan dipercaya oleh sebagian besar masyarakat yang kurang paham mengenai topik tersebut.
Banyak platform media sosial dan blog yang memungkinkan siapa saja mempublikasikan tulisan tanpa verifikasi ketat. Ketika berita palsu yang dihasilkan oleh AI diunggah, ia bisa menyebar dengan cepat sebelum ada kesempatan untuk memeriksa kebenarannya. Ini bisa berakibat fatal dalam kondisi tertentu, seperti menyebarkan informasi keliru tentang kesehatan atau politik.
 3. Bot Media Sosial. AI juga bisa digunakan untuk menciptakan bot media sosial yang mampu menyebarkan berita palsu secara otomatis. Bot ini tidak hanya mampu memposting konten, tetapi juga bisa berinteraksi dengan pengguna lain, mengomentari, dan membagikan ulang informasi palsu, seolah-olah dihasilkan oleh manusia. Dalam beberapa kasus, bot ini mampu mengamplifikasi konten tertentu sehingga terlihat lebih populer dan dipercaya oleh lebih banyak orang.
Contoh nyata adalah bot yang menyebarkan informasi palsu selama pemilihan umum di beberapa negara, yang mempengaruhi opini publik dan mengarahkan perdebatan politik ke arah yang salah. Dalam kasus ini, disinformasi yang dihasilkan oleh bot AI berpotensi mengancam demokrasi dan merusak kepercayaan masyarakat terhadap sistem politik.
 4. Manipulasi Gambar: Realitas Palsu di Dunia Visual
Selain teks dan video, AI juga mampu memanipulasi gambar untuk menghasilkan disinformasi. Dengan teknologi seperti GAN (Generative Adversarial Networks), AI dapat menciptakan gambar yang tampak sangat realistis namun sepenuhnya palsu. Misalnya, AI bisa menghasilkan gambar kerusuhan atau bencana yang SEBENARNYA TIDAK PERNAH TERJADI, namun dipersepsikan publik sebagai sesuatu yang nyata.
Seiring dengan meningkatnya kepercayaan publik terhadap konten visual, manipulasi gambar semacam ini bisa dengan mudah menyesatkan orang. Di sinilah letak bahayanya; orang lebih cenderung percaya pada bukti visual dibandingkan dengan teks. Ketika gambar palsu ini menyebar, sulit bagi publik untuk memverifikasi kebenarannya.
Disinformasi berbasis AI TIDAK HANYA BERDAMPAK pada individu atau kelompok kecil. Ancaman bagi seluruh masyarakat. Dalam skenario terburuk, disinformasi dapat menimbulkan ketidakstabilan politik, memecah belah masyarakat, atau bahkan menimbulkan krisis di sektor kesehatan dan keamanan.
AI mempercepat penyebaran informasi dengan cara yang belum pernah kita lihat sebelumnya, dan sayangnya, ia juga mempercepat penyebaran informasi yang salah. Platform digital, yang dirancang untuk memudahkan akses informasi, justru menjadi tempat utama penyebaran disinformasi.
Menghadapi ancaman ini, ada beberapa langkah yang perlu diambil. Pertama, kita memerlukan regulasi yang lebih kuat dalam penggunaan AI, terutama dalam konten yang dihasilkan oleh mesin. Kedua, platform digital perlu berinvestasi lebih banyak dalam teknologi deteksi disinformasi yang juga berbasis AI. Ironisnya, AI juga bisa menjadi solusi untuk masalah yang diciptakannya sendiri, dengan mendeteksi pola-pola aneh dan membedakan antara konten asli dan palsu.
Selain itu, literasi digital di masyarakat harus ditingkatkan. Masyarakat perlu lebih kritis dalam menyaring informasi yang mereka terima, termasuk dari media sosial dan sumber-sumber yang tidak jelas. Pemahaman akan teknologi seperti AI harus menjadi bagian dari kurikulum pendidikan agar kita semua lebih siap menghadapi tantangan di masa depan.
Disinformasi yang didorong oleh AI adalah masalah serius yang harus kita hadapi bersama. Teknologi ini, meskipun membawa banyak manfaat, juga membuka pintu bagi penyalahgunaan yang bisa merusak tatanan sosial kita. Dengan pemahaman yang lebih baik tentang bagaimana AI digunakan untuk menyebarkan berita bohong, kita dapat lebih waspada dan proaktif dalam melindungi integritas informasi publik.
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H