"Kita perlu merancang mesin yang secara melekat atau terkandung tidak yakin tentang apa tujuan kita." - Stuart Russell, Human Compatible.
Perkembangan pesat Model Bahasa Besar (LLM) seperti ChatGPT dan Gemini memunculkan kembali kekhawatiran tentang kontrol dan keselarasan tujuan. Kemampuan LLM untuk menghasilkan teks yang sangat mirip manusia bisa disalahgunakan untuk menyebarkan hoaks atau informasi yang salah. Pernahkah Anda membaca berita atau postingan di media sosial yang ternyata palsu? Ini adalah contoh bagaimana teknologi yang canggih bisa disalahgunakan.
Isu "halusinasi" pada LLM, di mana LLM memberikan informasi yang salah atau mengada-ada, juga relevan dengan prinsip ketidakpastian yang diusulkan Russell. Jika AI tidak menyadari keterbatasannya dan merasa tahu segalanya, maka ia berpotensi memberikan informasi yang salah dan menyesatkan. Apakah kita ingin mempercayai sepenuhnya informasi yang diberikan oleh mesin yang bisa "berhalusinasi"?
Perdebatan tentang regulasi AI juga semakin menguat. Banyak pihak yang menyerukan perlunya aturan yang jelas untuk pengembangan dan penggunaan AI. Gagasan Russell tentang keselarasan tujuan sangat relevan dengan perdebatan ini. Bagaimana kita bisa memastikan bahwa AI dikembangkan untuk kebaikan umat manusia, bukan untuk tujuan yang merugikan?
Baru-baru ini, banyak perdebatan tentang penggunaan AI untuk membuat deepfake yang digunakan untuk penipuan atau penyebaran informasi yang salah. Hal ini berkaitan dengan masalah keselarasan tujuan, di mana tujuan pembuat deepfake tidak selaras dengan nilai-nilai etika.
Buku "Human Compatible" memberikan wawasan penting tentang risiko dan tantangan dalam pengembangan AI. Kita tidak bisa mengabaikan potensi masalah yang mungkin timbul. Justru dengan memahaminya, kita bisa mengambil langkah-langkah pencegahan dan memastikan bahwa AI tetap bermanfaat bagi kita.
Menciptakan mesin, khususnya AI, yang secara inheren (melekat, terkandung sejak awal) bermanfaat bagi manusia adalah sebuah keharusan. Ini bukan sekadar impian atau harapan, melainkan sebuah kebutuhan mendesak di era di mana AI semakin canggih dan merasuki berbagai aspek kehidupan kita. Maksud dari "secara inheren bermanfaat" adalah bahwa tujuan dan cara kerja AI sejak awal dirancang untuk mengutamakan kebaikan manusia, bukan hanya sebagai efek samping atau kebetulan. Ini berarti, AI tidak boleh memiliki tujuan yang bertentangan dengan nilai-nilai kemanusiaan, seperti merugikan, mendiskriminasi, atau bahkan mengancam eksistensi manusia.
Mengapa ini penting? Bayangkan sebuah pisau. Pisau bisa sangat bermanfaat untuk memotong bahan makanan, tetapi juga bisa berbahaya jika digunakan untuk melukai. Sama halnya dengan AI. Jika AI yang sangat kuat tidak dirancang dengan tujuan yang benar sejak awal, ia berpotensi menimbulkan dampak negatif yang luar biasa. Oleh karena itu, memastikan AI "secara inheren bermanfaat" sama pentingnya dengan memastikan pisau digunakan dengan benar.
Penciptaan AI yang bermanfaat ini bukan hanya tugas segelintir ilmuwan atau pengembang di laboratorium. Ini adalah tanggung jawab kita bersama sebagai pengguna dan bagian dari masyarakat. Mengapa demikian?
Sebagai pengguna, kita berinteraksi dengan AI setiap hari, baik secara langsung maupun tidak langsung. Pilihan kita dalam menggunakan dan mendukung teknologi AI akan memengaruhi arah pengembangannya. Jika kita hanya terpaku pada fitur dan kemudahan tanpa mempertimbangkan implikasi etisnya, kita berpotensi mendorong pengembangan AI yang kurang bertanggung jawab.
Sebagai bagian dari masyarakat, AI akan memengaruhi tatanan sosial, ekonomi, dan politik kita. Oleh karena itu, kita semua memiliki hak dan kewajiban untuk berpartisipasi dalam wacana publik tentang AI. Kita perlu memahami potensi manfaat dan risikonya, serta menyuarakan pendapat kita tentang bagaimana AI seharusnya dikembangkan dan digunakan.