Ketika kita berbicara tentang kecerdasan buatan (AI), kebanyakan orang akan langsung memikirkan hal-hal futuristik seperti robot, algoritma canggih, atau mungkin film-film sci-fi yang penuh dengan kecemasan manusia terhadap mesin yang menjadi terlalu pintar. Namun, satu pertanyaan penting yang sering kita lupakan disini adalah... Di mana letak moralitas dalam dunia AI? Apakah AI bisa membedakan mana yang benar dan salah? Adakah kesadaran dan kehendak AI? Untuk menjawab hal itu, mungkin kita perlu kembali lagi ke masa lalu dan menengok sedikit mengenai filsafat kuno.
Â
Dalam tradisi Yunani Kuno, filsuf-filsuf besar seperti Aristoteles, Plato, dan Socrates membahas pertanyaan moralitas secara mendalam. Mereka berusaha memahami apa yang membuat suatu tindakan "baik" atau "buruk," dan dalam prosesnya, menciptakan landasan moral yang bisa kita gunakan hingga hari ini.
Sekarang, saat kita menghadapi tantangan etika di era teknologi, pertanyaan moral yang sama masih tetap relevan. AI, dengan segala kemampuan supernya, tetap butuh panduan yang membawanya ke arah yang benar. Di sinilah pelajaran dari filsafat kuno menjadi sangat berharga. Terutama dalam konteks superintelligence yang dikemukakan oleh Nick Bostrom.
Superintelligence dan Tantangan Moralitas
Nick Bostrom dalam bukunya Superintelligence: Paths, Dangers, Strategies (2014)Â mengemukakan bahwa kecerdasan buatan yang melebihi kapasitas manusia, atau yang disebut superintelligence, memiliki potensi untuk mengubah dunia secara drastis. Dalam skenario seperti ini, kontrol atas AI yang sangat cerdas menjadi tantangan besar. Apabila AI tidak dilengkapi dengan kode moral yang kuat, ia bisa mengejar tujuan yang mungkin tidak sesuai dengan nilai-nilai kemanusiaan.
Bostrom mengingatkan kita bahwa kegagalan untuk memprogram moralitas yang tepat dalam AI bisa membawa bahaya besar.
"It's quite possible that the most intelligent entity on the planet would have values totally alien to our own." --- Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (2014)
Maka dari itu, pertanyaan besarnya adalah, bagaimana kita bisa memastikan AI menginternalisasi nilai-nilai yang sejalan dengan kemanusiaan?
Kebijaksanaan Aristoteles dan AI
Aristoteles berbicara tentang "keutamaan" sebagai dasar moralitas. Ia percaya bahwa hidup yang baik adalah hidup yang seimbang, di mana seseorang berusaha mencapai kebajikan dengan menggunakan akal sehat dan penalaran. Dalam konteks AI, konsep ini bisa kita terjemahkan sebagai keseimbangan antara kemampuan AI untuk menyelesaikan masalah dan tanggung jawab etis yang mengiringi kemampuannya. Meskipun AI bisa membuat keputusan berdasarkan data, bagaimana ia memastikan keputusan tersebut juga benar secara moral?
Sebagai contoh, dalam dunia medis, AI sudah digunakan untuk mendiagnosis penyakit atau memberikan rekomendasi pengobatan. Namun, tanpa panduan moralitas yang jelas, ada risiko AI mengambil keputusan yang berdampak negatif pada pasien, seperti mengesampingkan kebutuhan emosional manusia hanya demi "efisiensi" atau "statistik." Aristoteles mungkin akan menyarankan agar AI dilatih bukan hanya untuk "berpikir," tapi juga untuk "merasa", atau setidaknya mempertimbangkan dampak emosional dari keputusan yang diambil.
Seperti kata Nietzsche, "He who fights with monsters should be careful lest he thereby become a monster." Dalam konteks ini, AI yang dibiarkan bertindak tanpa panduan moral bisa menjadi ancaman besar bagi masyarakat yang menciptakannya.