Kecerdasan buatan (AI) generatif menjadi tren baru di dunia teknologi AI akhir-akhir ini, mungkin tidak mengherankan jika teknologi ini telah digunakan kembali oleh pihak-pihak jahat untuk keuntungan mereka sendiri, sehingga memungkinkan terjadinya kejahatan siber yang semakin cepat.
Menurut temuan dari SlashNext, alat kejahatan siber AI generatif baru yang disebut WormGPT telah diiklankan di forum-forum underground (bawah tanah) sebagai cara bagi pihak lawan untuk melancarkan serangan phishing dan kompromi email bisnis yang canggih (BEC).
"Alat ini menampilkan dirinya sebagai alternatif blackhat untuk model GPT, yang dirancang khusus untuk aktivitas jahat," kata peneliti keamanan Daniel Kelley. "Penjahat siber dapat menggunakan teknologi tersebut untuk mengotomatiskan pembuatan email palsu yang sangat meyakinkan, yang dipersonalisasi untuk penerima, sehingga meningkatkan peluang keberhasilan serangan."
Penulis perangkat lunak ini menggambarkannya sebagai "musuh terbesar dari ChatGPT yang terkenal" yang "memungkinkan Anda melakukan segala macam hal yang ilegal."
Di tangan aktor jahat, alat seperti WormGPT bisa menjadi senjata yang ampuh, terutama karena OpenAI ChatGPT dan Google Bard semakin mengambil langkah untuk memerangi penyalahgunaan model bahasa besar (LLM) untuk membuat email phishing yang meyakinkan dan menghasilkan kode berbahaya.
"Pembatas anti-penyalahgunaan Bard di bidang keamanan siber jauh lebih rendah dibandingkan dengan ChatGPT," kata Check Point dalam sebuah laporan minggu ini. "Akibatnya, jauh lebih mudah untuk menghasilkan konten berbahaya menggunakan kemampuan Bard."
Awal Februari lalu, perusahaan keamanan siber Israel mengungkapkan bagaimana para penjahat siber bekerja di sekitar pembatasan ChatGPT dengan memanfaatkan API-nya, belum lagi memperdagangkan akun premium yang dicuri dan menjual perangkat lunak brute-force untuk meretas akun ChatGPT dengan menggunakan daftar alamat email dan kata sandi yang sangat besar.
Fakta bahwa WormGPT beroperasi tanpa batasan etika menggarisbawahi ancaman yang ditimbulkan oleh AI generatif, bahkan memungkinkan penjahat siber pemula untuk meluncurkan serangan dengan cepat dan dalam skala besar tanpa memiliki kemampuan teknis untuk melakukannya.
Lebih buruk lagi, pelaku ancaman mempromosikan "jailbreak" untuk ChatGPT, merekayasa permintaan dan masukan khusus yang dirancang untuk memanipulasi alat tersebut agar menghasilkan keluaran yang dapat melibatkan pengungkapan informasi sensitif, menghasilkan konten yang tidak pantas, dan mengeksekusi kode yang berbahaya.
"AI generatif dapat membuat email dengan tata bahasa yang sempurna, membuatnya tampak sah dan mengurangi kemungkinan ditandai sebagai email yang mencurigakan," kata Kelley.
"Penggunaan AI generatif mendemokratisasi eksekusi serangan BEC yang canggih. Bahkan penyerang dengan keterampilan terbatas pun dapat menggunakan teknologi ini, menjadikannya alat yang dapat diakses oleh spektrum penjahat siber yang lebih luas."
Pengungkapan ini muncul ketika para peneliti dari Mithril Security "membedah" model AI open-source yang dikenal sebagai GPT-J-6B untuk menyebarkan disinformasi dan mengunggahnya ke repositori publik seperti Hugging Face yang kemudian dapat diintegrasikan ke dalam aplikasi lain, yang mengarah pada apa yang disebut sebagai peracunan rantai pasokan LLM.
Keberhasilan teknik ini, yang dijuluki PoisonGPT, bergantung pada prasyarat bahwa model yang dilobotomi diunggah menggunakan nama yang menyamar sebagai perusahaan yang dikenal, dalam hal ini, versi salah ketik dari EleutherAI, perusahaan di balik GPT-J.
Artikel ini merupakan terjemahan dari berita yang berjudul WormGPT: New AI Tool Allows Cybercriminals to Launch Sophisticated Cyber AttacksÂ
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H