Mohon tunggu...
A Darto Iwan S
A Darto Iwan S Mohon Tunggu... Lainnya - Menulis bukan karena tahu banyak, tapi ingin tahu lebih banyak.

Menulis sebagai salah satu cara untuk healing :)

Selanjutnya

Tutup

Artificial intelligence Pilihan

Menjinakkan AI Bersama Stuart Russel dalam Buku "Human Compatible"

30 Desember 2024   08:29 Diperbarui: 30 Desember 2024   08:29 71
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi gambar oleh Darto plus tools AI

Pernahkah Anda memesan makanan lewat aplikasi, lalu aplikasi tersebut merekomendasikan menu lain yang mungkin Anda suka? Atau saat berkendara, Anda menggunakan aplikasi navigasi yang memberikan rute tercepat? Itulah sebagian kecil contoh penerapan Kecerdasan Buatan atau Artificial Intelligence (AI) dalam kehidupan sehari-hari. AI kini hadir di berbagai aspek kehidupan kita, mulai dari hiburan, transportasi, hingga kesehatan. Tapi, tahukah Anda bahwa di balik kemudahan dan potensi luar biasa AI, tersimpan pula risiko yang perlu kita pahami?

Stuart Russell, seorang pakar AI terkemuka dari UC Berkeley, dalam bukunya yang berjudul "Human Compatible: Artificial Intelligence and the Problem of Control" mengajak kita untuk merenungkan masa depan AI dan bagaimana kita dapat memastikan teknologi ini tetap bermanfaat bagi umat manusia. Artikel ini akan membahas poin-poin penting dalam buku tersebut agar kita semua, khususnya para pemula, dapat memahami isu krusial seputar AI.

Selain karya tulisnya, Russell juga merupakan direktur dari Center for Human-Compatible AI (CHAI) di Berkeley, sebuah pusat penelitian yang berdedikasi untuk mengembangkan teori dan teknik untuk membangun sistem AI yang bermanfaat bagi manusia. Melalui CHAI dan karya-karyanya, Russell berusaha untuk memitigasi risiko eksistensial yang mungkin ditimbulkan oleh AI di masa depan. Ia sering diundang sebagai pembicara di berbagai forum internasional untuk membahas implikasi etis dan sosial dari AI, serta memberikan masukan kepada para pembuat kebijakan tentang regulasi dan tata kelola AI. Kontribusinya yang luas telah menjadikannya salah satu tokoh paling berpengaruh dalam wacana publik tentang masa depan AI.

Bayangkan Anda memiliki robot pelayan yang sangat pintar. Anda memerintahkannya untuk "bawakan saya kopi". Robot tersebut, karena sangat pintar dan patuh, mungkin akan melakukan segala cara untuk mendapatkan kopi terbaik, bahkan mungkin dengan menghancurkan kedai kopi demi mendapatkan biji kopi yang paling berkualitas. Terdengar konyol, bukan? Namun, inilah inti dari "Masalah Kontrol" yang diangkat Russell. Masalahnya bukan AI yang "jahat", tetapi AI yang menjalankan perintah secara literal tanpa memahami konteks atau konsekuensi yang lebih luas. Ini seperti memberikan tugas ke AI untuk memberantas spam, tapi AI malah memblokir semua komunikasi online karena menganggap semuanya berpotensi spam. Apakah kita benar-benar ingin robot yang terlalu patuh seperti itu?

Russell menekankan pentingnya "Perbedaan Tujuan" (Misaligned Objectives). AI mungkin sangat kompeten dalam mencapai tujuannya, tetapi jika tujuan tersebut tidak selaras dengan nilai-nilai manusia, maka masalah akan timbul. Contohnya, jika kita memberi tugas AI untuk memaksimalkan keuntungan perusahaan, AI mungkin akan melakukan tindakan yang merugikan lingkungan atau masyarakat dengan mengeksploitasi sumber daya alam secara berlebihan. Pernahkah Anda mendengar tentang perusahaan yang melakukan praktik bisnis yang tidak etis demi keuntungan semata? Inilah analogi sederhana bagaimana AI dengan tujuan yang salah bisa bertindak.

"Masalahnya bukanlah bahwa mesin itu jahat, tetapi bahwa mesin itu kompeten dan tujuannya bukan tujuan kita." - Stuart Russell, Human Compatible.

Lalu, bagaimana cara mencegah skenario buruk tersebut? Russell menawarkan tiga prinsip penting untuk menciptakan AI yang "kompatibel" dengan manusia.

Prinsip pertama, tujuan utama AI adalah mewujudkan pilihan  atau keinginan manusia. AI harus dirancang untuk belajar dan memahami apa yang diinginkan manusia, bukan memiliki tujuan sendiri. Ibarat seorang pelayan yang baik, ia harus mengerti keinginan pelanggannya, bukan bertindak sesuka hati. Bayangkan jika semua pelayan di restoran bertindak sesuai keinginan mereka sendiri, pasti akan terjadi kekacauan, bukan?

Prinsip kedua, ketidakpastian tentang pilihan / keinginan manusia. AI harus menyadari bahwa mereka mungkin tidak sepenuhnya memahami pilihan / keinginan manusia dan harus selalu mencari informasi lebih lanjut. Contohnya, jika Anda memesan kopi, pelayan yang baik akan bertanya apakah Anda ingin kopi panas atau dingin, dengan gula atau tanpa gula. Begitu pula dengan AI, ia harus "bertanya" untuk memastikan ia memenuhi keinginan kita.

Prinsip ketiga atau terakhir, sumber informasi tentang pilihan / keinginan manusia adalah perilaku manusia. AI dapat belajar tentang nilai-nilai manusia dengan mengamati tindakan dan pilihan yang kita buat. Contohnya, AI dapat mempelajari pilihan / keinginanmusik seseorang dari playlist yang sering didengar. Dengan kata lain, AI belajar dari "jejak digital" yang kita tinggalkan.

HALAMAN :
  1. 1
  2. 2
  3. 3
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun