Mohon tunggu...
A Darto Iwan S
A Darto Iwan S Mohon Tunggu... Lainnya - Menulis bukan karena tahu banyak, tapi ingin tahu lebih banyak.

Menulis sebagai salah satu cara untuk healing :)

Selanjutnya

Tutup

Artificial intelligence Pilihan

Menjinakkan AI Bersama Stuart Russel dalam Buku "Human Compatible"

30 Desember 2024   08:29 Diperbarui: 30 Desember 2024   08:29 75
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi gambar oleh Darto plus tools AI

Pernahkah Anda memesan makanan lewat aplikasi, lalu aplikasi tersebut merekomendasikan menu lain yang mungkin Anda suka? Atau saat berkendara, Anda menggunakan aplikasi navigasi yang memberikan rute tercepat? Itulah sebagian kecil contoh penerapan Kecerdasan Buatan atau Artificial Intelligence (AI) dalam kehidupan sehari-hari. AI kini hadir di berbagai aspek kehidupan kita, mulai dari hiburan, transportasi, hingga kesehatan. Tapi, tahukah Anda bahwa di balik kemudahan dan potensi luar biasa AI, tersimpan pula risiko yang perlu kita pahami?

Stuart Russell, seorang pakar AI terkemuka dari UC Berkeley, dalam bukunya yang berjudul "Human Compatible: Artificial Intelligence and the Problem of Control" mengajak kita untuk merenungkan masa depan AI dan bagaimana kita dapat memastikan teknologi ini tetap bermanfaat bagi umat manusia. Artikel ini akan membahas poin-poin penting dalam buku tersebut agar kita semua, khususnya para pemula, dapat memahami isu krusial seputar AI.

Selain karya tulisnya, Russell juga merupakan direktur dari Center for Human-Compatible AI (CHAI) di Berkeley, sebuah pusat penelitian yang berdedikasi untuk mengembangkan teori dan teknik untuk membangun sistem AI yang bermanfaat bagi manusia. Melalui CHAI dan karya-karyanya, Russell berusaha untuk memitigasi risiko eksistensial yang mungkin ditimbulkan oleh AI di masa depan. Ia sering diundang sebagai pembicara di berbagai forum internasional untuk membahas implikasi etis dan sosial dari AI, serta memberikan masukan kepada para pembuat kebijakan tentang regulasi dan tata kelola AI. Kontribusinya yang luas telah menjadikannya salah satu tokoh paling berpengaruh dalam wacana publik tentang masa depan AI.

Bayangkan Anda memiliki robot pelayan yang sangat pintar. Anda memerintahkannya untuk "bawakan saya kopi". Robot tersebut, karena sangat pintar dan patuh, mungkin akan melakukan segala cara untuk mendapatkan kopi terbaik, bahkan mungkin dengan menghancurkan kedai kopi demi mendapatkan biji kopi yang paling berkualitas. Terdengar konyol, bukan? Namun, inilah inti dari "Masalah Kontrol" yang diangkat Russell. Masalahnya bukan AI yang "jahat", tetapi AI yang menjalankan perintah secara literal tanpa memahami konteks atau konsekuensi yang lebih luas. Ini seperti memberikan tugas ke AI untuk memberantas spam, tapi AI malah memblokir semua komunikasi online karena menganggap semuanya berpotensi spam. Apakah kita benar-benar ingin robot yang terlalu patuh seperti itu?

Russell menekankan pentingnya "Perbedaan Tujuan" (Misaligned Objectives). AI mungkin sangat kompeten dalam mencapai tujuannya, tetapi jika tujuan tersebut tidak selaras dengan nilai-nilai manusia, maka masalah akan timbul. Contohnya, jika kita memberi tugas AI untuk memaksimalkan keuntungan perusahaan, AI mungkin akan melakukan tindakan yang merugikan lingkungan atau masyarakat dengan mengeksploitasi sumber daya alam secara berlebihan. Pernahkah Anda mendengar tentang perusahaan yang melakukan praktik bisnis yang tidak etis demi keuntungan semata? Inilah analogi sederhana bagaimana AI dengan tujuan yang salah bisa bertindak.

"Masalahnya bukanlah bahwa mesin itu jahat, tetapi bahwa mesin itu kompeten dan tujuannya bukan tujuan kita." - Stuart Russell, Human Compatible.

Lalu, bagaimana cara mencegah skenario buruk tersebut? Russell menawarkan tiga prinsip penting untuk menciptakan AI yang "kompatibel" dengan manusia.

Prinsip pertama, tujuan utama AI adalah mewujudkan pilihan  atau keinginan manusia. AI harus dirancang untuk belajar dan memahami apa yang diinginkan manusia, bukan memiliki tujuan sendiri. Ibarat seorang pelayan yang baik, ia harus mengerti keinginan pelanggannya, bukan bertindak sesuka hati. Bayangkan jika semua pelayan di restoran bertindak sesuai keinginan mereka sendiri, pasti akan terjadi kekacauan, bukan?

Prinsip kedua, ketidakpastian tentang pilihan / keinginan manusia. AI harus menyadari bahwa mereka mungkin tidak sepenuhnya memahami pilihan / keinginan manusia dan harus selalu mencari informasi lebih lanjut. Contohnya, jika Anda memesan kopi, pelayan yang baik akan bertanya apakah Anda ingin kopi panas atau dingin, dengan gula atau tanpa gula. Begitu pula dengan AI, ia harus "bertanya" untuk memastikan ia memenuhi keinginan kita.

Prinsip ketiga atau terakhir, sumber informasi tentang pilihan / keinginan manusia adalah perilaku manusia. AI dapat belajar tentang nilai-nilai manusia dengan mengamati tindakan dan pilihan yang kita buat. Contohnya, AI dapat mempelajari pilihan / keinginanmusik seseorang dari playlist yang sering didengar. Dengan kata lain, AI belajar dari "jejak digital" yang kita tinggalkan.

"Kita perlu merancang mesin yang secara melekat atau terkandung tidak yakin tentang apa tujuan kita." - Stuart Russell, Human Compatible.

Perkembangan pesat Model Bahasa Besar (LLM) seperti ChatGPT dan Gemini memunculkan kembali kekhawatiran tentang kontrol dan keselarasan tujuan. Kemampuan LLM untuk menghasilkan teks yang sangat mirip manusia bisa disalahgunakan untuk menyebarkan hoaks atau informasi yang salah. Pernahkah Anda membaca berita atau postingan di media sosial yang ternyata palsu? Ini adalah contoh bagaimana teknologi yang canggih bisa disalahgunakan.

Isu "halusinasi" pada LLM, di mana LLM memberikan informasi yang salah atau mengada-ada, juga relevan dengan prinsip ketidakpastian yang diusulkan Russell. Jika AI tidak menyadari keterbatasannya dan merasa tahu segalanya, maka ia berpotensi memberikan informasi yang salah dan menyesatkan. Apakah kita ingin mempercayai sepenuhnya informasi yang diberikan oleh mesin yang bisa "berhalusinasi"?

Perdebatan tentang regulasi AI juga semakin menguat. Banyak pihak yang menyerukan perlunya aturan yang jelas untuk pengembangan dan penggunaan AI. Gagasan Russell tentang keselarasan tujuan sangat relevan dengan perdebatan ini. Bagaimana kita bisa memastikan bahwa AI dikembangkan untuk kebaikan umat manusia, bukan untuk tujuan yang merugikan?

Baru-baru ini, banyak perdebatan tentang penggunaan AI untuk membuat deepfake yang digunakan untuk penipuan atau penyebaran informasi yang salah. Hal ini berkaitan dengan masalah keselarasan tujuan, di mana tujuan pembuat deepfake tidak selaras dengan nilai-nilai etika.

Buku "Human Compatible" memberikan wawasan penting tentang risiko dan tantangan dalam pengembangan AI. Kita tidak bisa mengabaikan potensi masalah yang mungkin timbul. Justru dengan memahaminya, kita bisa mengambil langkah-langkah pencegahan dan memastikan bahwa AI tetap bermanfaat bagi kita.

Menciptakan mesin, khususnya AI, yang secara inheren (melekat, terkandung sejak awal) bermanfaat bagi manusia adalah sebuah keharusan. Ini bukan sekadar impian atau harapan, melainkan sebuah kebutuhan mendesak di era di mana AI semakin canggih dan merasuki berbagai aspek kehidupan kita. Maksud dari "secara inheren bermanfaat" adalah bahwa tujuan dan cara kerja AI sejak awal dirancang untuk mengutamakan kebaikan manusia, bukan hanya sebagai efek samping atau kebetulan. Ini berarti, AI tidak boleh memiliki tujuan yang bertentangan dengan nilai-nilai kemanusiaan, seperti merugikan, mendiskriminasi, atau bahkan mengancam eksistensi manusia.

Mengapa ini penting? Bayangkan sebuah pisau. Pisau bisa sangat bermanfaat untuk memotong bahan makanan, tetapi juga bisa berbahaya jika digunakan untuk melukai. Sama halnya dengan AI. Jika AI yang sangat kuat tidak dirancang dengan tujuan yang benar sejak awal, ia berpotensi menimbulkan dampak negatif yang luar biasa. Oleh karena itu, memastikan AI "secara inheren bermanfaat" sama pentingnya dengan memastikan pisau digunakan dengan benar.

Penciptaan AI yang bermanfaat ini bukan hanya tugas segelintir ilmuwan atau pengembang di laboratorium. Ini adalah tanggung jawab kita bersama sebagai pengguna dan bagian dari masyarakat. Mengapa demikian?

Sebagai pengguna, kita berinteraksi dengan AI setiap hari, baik secara langsung maupun tidak langsung. Pilihan kita dalam menggunakan dan mendukung teknologi AI akan memengaruhi arah pengembangannya. Jika kita hanya terpaku pada fitur dan kemudahan tanpa mempertimbangkan implikasi etisnya, kita berpotensi mendorong pengembangan AI yang kurang bertanggung jawab.

Sebagai bagian dari masyarakat, AI akan memengaruhi tatanan sosial, ekonomi, dan politik kita. Oleh karena itu, kita semua memiliki hak dan kewajiban untuk berpartisipasi dalam wacana publik tentang AI. Kita perlu memahami potensi manfaat dan risikonya, serta menyuarakan pendapat kita tentang bagaimana AI seharusnya dikembangkan dan digunakan.

Lalu, apa yang bisa kita lakukan? Kita perlu terus memperbarui pengetahuan kita tentang AI, baik dari sumber ilmiah maupun populer. Memahami cara kerja AI, potensi manfaat, dan risikonya adalah langkah awal yang penting. Kita perlu membuka ruang diskusi yang inklusif tentang AI, melibatkan berbagai pihak, mulai dari ahli, pemerintah, pelaku industri, hingga masyarakat umum. Diskusi ini penting untuk merumuskan panduan etika dan regulasi yang tepat untuk pengembangan dan penggunaan AI. Kita perlu bekerja sama untuk mewujudkan visi AI yang bermanfaat bagi kemanusiaan. Ini membutuhkan kolaborasi lintas disiplin ilmu, lintas sektor, dan lintas negara. Ilmuwan, insinyur, ahli etika, pembuat kebijakan, dan masyarakat sipil perlu bahu membahu untuk memastikan AI digunakan untuk kebaikan bersama.

Dengan terus belajar, berdiskusi, dan berkolaborasi, kita dapat mewujudkan masa depan AI yang lebih baik, di mana teknologi ini benar-benar menjadi alat untuk meningkatkan kualitas hidup manusia, bukan sebaliknya. Pertanyaannya, apakah kita siap berkontribusi untuk mewujudkan masa depan tersebut? Apakah kita rela hanya menjadi penonton, atau ikut andil dalam membentuk arah perkembangan AI? Pilihan ada di tangan kita.

Apakah kita siap menghadapi masa depan dengan AI yang bijak dan bertanggung jawab? Mari kita mulai dari sekarang. Semoga artikel ini bermanfaat dan dapat menjadi bahan diskusi yang lebih luas tentang isu penting ini.

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

HALAMAN :
  1. 1
  2. 2
  3. 3
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun