ChatGPT dan segala kecerdasan buatan dapat dipastikan tidak memiliki kemampuan memanipulasi manusia. Bahaya yang tampak nyata dan sudah terjadi berulang kali tersaji di hadapan kita justru datang dari sikap dan perilaku buatan manusia. Era digital seiring era kecerdasan buatan bahkan bukan saja tak mampu membendung, sebaliknya malah mengubah banyak sikap dan perilaku manusia dengan cara dibuat-dibuat.Â
Lihat saja bagaimana pada akhirnya ada beberapa pasangan selebriti yang mengakui bahwa beberapa kasus atau berita tentang mereka yang sempat mencuat, viral dan menghebohkan publik, ternyata hanya skenario atau settingan. Juga kasus atau kejadian-kejadian yang ternyata ujung-ujungnya hanya prank. Padahal di awal kasus atau kejadian mulai mengemuka, kita sama sekali tak mampu memprediksi bahwa itu hanya lelucon.Â
Selain itu, banyak konten-konten yang menggunakan cara penyampaian dengan memanipulasi judul, konteks, informasi dan lainnya hingga para penonton (netizen) mudah dipengaruhi. Sikap dan perilaku buatan barangkali hampir tidak pernah disentuh oleh siapa pun sebagai sesuatu yang bisa dibuat dengan kesengajaan manipulatif. Sebab selama ini sikap dan perilaku seringkali hanya dinilai berjalan natural atau mengalir begitu saja dengan simpangan dalam konteks mengandung unsur manipulasi. Â
Sains, teknologi dan kini kecerdasan buatan tidak mungkin mampu menunjukkan kemampuannya tanpa aksi atau perintah manusia. Tetapi sikap dan perilaku buatan, sejak era digital mengalami perkembangan yang pesat lewat berbagai platformnya, telah menjadi media arus utama manusia dalam mengembangkan sikap dan perilaku buatannya. Jadi, sikap dan perilaku buatan jauh lebih mengerikan daripada kecerdasan buatan.
Akhir kata, satu pertanyaan diajukan lagi ke ChatGPT, "Apakah manusia bisa memanipulasi kecerdasanmu?"Â
ChatGPT menjawab, "Sebagai sebuah program komputer yang dibuat oleh manusia, saya tidak memiliki kecerdasan yang bisa dimanipulasi oleh manusia seperti halnya manusia memiliki kecerdasan yang bisa dimanipulasi oleh orang lain. Saya hanya dapat menghasilkan jawaban berdasarkan data dan algoritma yang sudah diprogramkan pada saya, serta kemampuan pemrosesan bahasa alami yang saya miliki."
"Namun, manusia bisa memanipulasi output yang dihasilkan oleh saya dengan memberikan informasi yang salah atau tidak akurat, atau dengan menanyakan pertanyaan yang ambigu atau tidak jelas. Oleh karena itu, penting bagi pengguna untuk memastikan bahwa informasi yang diberikan kepada saya akurat dan jelas agar jawaban yang saya berikan juga akurat dan berguna."
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H