Mohon tunggu...
Abdul Azzam Ajhari
Abdul Azzam Ajhari Mohon Tunggu... Ilmuwan - Manggala Informatika pada Badan Siber dan Sandi Negara

Abdul Azzam Ajhari atau biasa dipanggil Azzam berprofesi sebagai Pegawai Negeri Sipil (PNS) dengan pekerjaan sebagai Manggala Informatika di Badan Siber dan Sandi Negara (BSSN). Berkecimpung dan menekuni dunia penelitian sejak tahun 2019 yang menghasilkan beberapa karya penelitian serta Hak Atas Kekayaan Intelektual (HAKI) Artificial Intelligence, Machine Learning, dan Deep Learning di bidang keamanan siber yang dapat diakses pada link berikut https://linktr.ee/abdulazzamajhari

Selanjutnya

Tutup

Artificial intelligence

Kenali WormGPT: Tool AI Canggih yang Digunakan Penjahat Siber

17 Juli 2023   09:00 Diperbarui: 17 Juli 2023   09:01 379
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Kecerdasan buatan (AI) generatif menjadi tren baru di dunia teknologi AI akhir-akhir ini, mungkin tidak mengherankan jika teknologi ini telah digunakan kembali oleh pihak-pihak jahat untuk keuntungan mereka sendiri, sehingga memungkinkan terjadinya kejahatan siber yang semakin cepat.

Menurut temuan dari SlashNext, alat kejahatan siber AI generatif baru yang disebut WormGPT telah diiklankan di forum-forum underground (bawah tanah) sebagai cara bagi pihak lawan untuk melancarkan serangan phishing dan kompromi email bisnis yang canggih (BEC).

"Alat ini menampilkan dirinya sebagai alternatif blackhat untuk model GPT, yang dirancang khusus untuk aktivitas jahat," kata peneliti keamanan Daniel Kelley. "Penjahat siber dapat menggunakan teknologi tersebut untuk mengotomatiskan pembuatan email palsu yang sangat meyakinkan, yang dipersonalisasi untuk penerima, sehingga meningkatkan peluang keberhasilan serangan."

Penulis perangkat lunak ini menggambarkannya sebagai "musuh terbesar dari ChatGPT yang terkenal" yang "memungkinkan Anda melakukan segala macam hal yang ilegal."

Di tangan aktor jahat, alat seperti WormGPT bisa menjadi senjata yang ampuh, terutama karena OpenAI ChatGPT dan Google Bard semakin mengambil langkah untuk memerangi penyalahgunaan model bahasa besar (LLM) untuk membuat email phishing yang meyakinkan dan menghasilkan kode berbahaya.

"Pembatas anti-penyalahgunaan Bard di bidang keamanan siber jauh lebih rendah dibandingkan dengan ChatGPT," kata Check Point dalam sebuah laporan minggu ini. "Akibatnya, jauh lebih mudah untuk menghasilkan konten berbahaya menggunakan kemampuan Bard."

sumber gambar: thehackernews.com
sumber gambar: thehackernews.com

Awal Februari lalu, perusahaan keamanan siber Israel mengungkapkan bagaimana para penjahat siber bekerja di sekitar pembatasan ChatGPT dengan memanfaatkan API-nya, belum lagi memperdagangkan akun premium yang dicuri dan menjual perangkat lunak brute-force untuk meretas akun ChatGPT dengan menggunakan daftar alamat email dan kata sandi yang sangat besar.

Fakta bahwa WormGPT beroperasi tanpa batasan etika menggarisbawahi ancaman yang ditimbulkan oleh AI generatif, bahkan memungkinkan penjahat siber pemula untuk meluncurkan serangan dengan cepat dan dalam skala besar tanpa memiliki kemampuan teknis untuk melakukannya.

Lebih buruk lagi, pelaku ancaman mempromosikan "jailbreak" untuk ChatGPT, merekayasa permintaan dan masukan khusus yang dirancang untuk memanipulasi alat tersebut agar menghasilkan keluaran yang dapat melibatkan pengungkapan informasi sensitif, menghasilkan konten yang tidak pantas, dan mengeksekusi kode yang berbahaya.

"AI generatif dapat membuat email dengan tata bahasa yang sempurna, membuatnya tampak sah dan mengurangi kemungkinan ditandai sebagai email yang mencurigakan," kata Kelley.

"Penggunaan AI generatif mendemokratisasi eksekusi serangan BEC yang canggih. Bahkan penyerang dengan keterampilan terbatas pun dapat menggunakan teknologi ini, menjadikannya alat yang dapat diakses oleh spektrum penjahat siber yang lebih luas."

Pengungkapan ini muncul ketika para peneliti dari Mithril Security "membedah" model AI open-source yang dikenal sebagai GPT-J-6B untuk menyebarkan disinformasi dan mengunggahnya ke repositori publik seperti Hugging Face yang kemudian dapat diintegrasikan ke dalam aplikasi lain, yang mengarah pada apa yang disebut sebagai peracunan rantai pasokan LLM.

Keberhasilan teknik ini, yang dijuluki PoisonGPT, bergantung pada prasyarat bahwa model yang dilobotomi diunggah menggunakan nama yang menyamar sebagai perusahaan yang dikenal, dalam hal ini, versi salah ketik dari EleutherAI, perusahaan di balik GPT-J.

Artikel ini merupakan terjemahan dari berita yang berjudul WormGPT: New AI Tool Allows Cybercriminals to Launch Sophisticated Cyber Attacks 

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun