Kecerdasan buatan (AI) generatif menjadi tren baru di dunia teknologi AI akhir-akhir ini, mungkin tidak mengherankan jika teknologi ini telah digunakan kembali oleh pihak-pihak jahat untuk keuntungan mereka sendiri, sehingga memungkinkan terjadinya kejahatan siber yang semakin cepat.
Menurut temuan dari SlashNext, alat kejahatan siber AI generatif baru yang disebut WormGPT telah diiklankan di forum-forum underground (bawah tanah) sebagai cara bagi pihak lawan untuk melancarkan serangan phishing dan kompromi email bisnis yang canggih (BEC).
"Alat ini menampilkan dirinya sebagai alternatif blackhat untuk model GPT, yang dirancang khusus untuk aktivitas jahat," kata peneliti keamanan Daniel Kelley. "Penjahat siber dapat menggunakan teknologi tersebut untuk mengotomatiskan pembuatan email palsu yang sangat meyakinkan, yang dipersonalisasi untuk penerima, sehingga meningkatkan peluang keberhasilan serangan."
Penulis perangkat lunak ini menggambarkannya sebagai "musuh terbesar dari ChatGPT yang terkenal" yang "memungkinkan Anda melakukan segala macam hal yang ilegal."
Di tangan aktor jahat, alat seperti WormGPT bisa menjadi senjata yang ampuh, terutama karena OpenAI ChatGPT dan Google Bard semakin mengambil langkah untuk memerangi penyalahgunaan model bahasa besar (LLM) untuk membuat email phishing yang meyakinkan dan menghasilkan kode berbahaya.
"Pembatas anti-penyalahgunaan Bard di bidang keamanan siber jauh lebih rendah dibandingkan dengan ChatGPT," kata Check Point dalam sebuah laporan minggu ini. "Akibatnya, jauh lebih mudah untuk menghasilkan konten berbahaya menggunakan kemampuan Bard."
Awal Februari lalu, perusahaan keamanan siber Israel mengungkapkan bagaimana para penjahat siber bekerja di sekitar pembatasan ChatGPT dengan memanfaatkan API-nya, belum lagi memperdagangkan akun premium yang dicuri dan menjual perangkat lunak brute-force untuk meretas akun ChatGPT dengan menggunakan daftar alamat email dan kata sandi yang sangat besar.
Fakta bahwa WormGPT beroperasi tanpa batasan etika menggarisbawahi ancaman yang ditimbulkan oleh AI generatif, bahkan memungkinkan penjahat siber pemula untuk meluncurkan serangan dengan cepat dan dalam skala besar tanpa memiliki kemampuan teknis untuk melakukannya.
Lebih buruk lagi, pelaku ancaman mempromosikan "jailbreak" untuk ChatGPT, merekayasa permintaan dan masukan khusus yang dirancang untuk memanipulasi alat tersebut agar menghasilkan keluaran yang dapat melibatkan pengungkapan informasi sensitif, menghasilkan konten yang tidak pantas, dan mengeksekusi kode yang berbahaya.