"Mungkin saja, di dunia ini, kita semua akan lebih seperti anak-anak di sebuah Disneyland raksasa yang bukan dipelihara oleh manusia, tetapi oleh mesin-mesin yang telah kita ciptakan," kata Bostrom, sang direktur Institut Masa Depan Umat Manusia (Future of Humanity Institute) dan Universitas Oxford, penulis Superinteligensi: Jalan, Bahaya, Strategi (Superintelligence: Paths, Dangers, Strategies).
Tergantung di mana Anda berdiri, ini mungkin terdengar seperti sebuah fantasi utopis, atau sebuah mimpi buruk distopia. Bostrom sangat menyadari hal ini. Dia telah memikirkan kemunculan AI supercerdas selama beberapa dekade, dan dia sangat akrab dengan risiko seperti itu, yang diperlukan oleh kreasi.
Tentu saja, ada mimpi buruk fiksi ilmiah klasik dari revolusi robot, di mana mesin-mesin memutuskan bahwa mereka lebih suka mengendalikan bumi, tetapu yang lebih mungkin adalah kemungkinan bahwa kode moral dari sebuah AI supercerdas, apa pun itu, tidaklah sejalan dengan kode moral manusia.
Sebuah AI yang bertanggung jawab atas armada mobil-mobil swakendara (self-driving) atau distribusi pasokan-pasokan medis bisa menyebabkan malapetaka jika gagal menghargai kehidupan manusia dengan cara yang sama seperti kita.
Masalah penyelarasan AI, demikian sebutannya, telah menjadi urgensi baru dalam beberapa tahun terakhir, sebagian karena karya futuris seperti Bostrom. Jika kita tidak bisa mengendalikan AI yang sangat cerdas, maka nasib kita bisa bergantung pada apakah kecerdasan mesin di masa depan bisa dibuat berpikir seperti kita.
Bostrom mengingatkan kita bahwa ada upaya yang dilakukan untuk "mendesain AI sedemikian rupa sehingga sebenarnya akan memilih hal-hal yang bermanfaat bagi manusia, dan akan memilih untuk meminta klarifikasi kepada kita ketika tidak pasti dengan apa yang kita maksudkan."
Ada beberapa cara kita bisa mengajarkan moralitas manusia kepada sebuah superintelijensi yang baru lahir. Algoritma-algoritma pembelajaran mesin bisa diajarkan untuk mengenali sistem nilai manusia, seperti halnya superintelijensi  itu dilatih berdasarkan basis data gambar dan teks sekarang ini. Atau, AI yang berbeda bisa berdebat satu sama lain, diawasi oleh moderator manusia, untuk membangun model-model preferensi manusia yang lebih baik.
Namun moralitas memotong dalam 2 arah. Mungkin akan ada suatu hari, ketika kita perlu mempertimbangkan tidak hanya bagaimana perasaan AI tentang kita, tetapi juga bagaimana perasaan AI Â itu sendiri.
"Jika kita memiliki kecerdasan mesin yang menjadi pikiran digital buatan," lanjut Bostrom, "maka itu juga menjadi masalah etika tentang bagaimana kita mempengaruhi kecerdasan mesin itu."
Di era mesin-mesin yang berkesadaran ini, manusia mungkin memiliki kewajiban moral yang baru ditemukan untuk memperlakukan makhluk digital dengan hormat, sebut saja Aturan Emas abad ke-21.
Kepustakaan
1. Scharping, Nataniel, Embracing the Singularity, Discover, March/April 2021, hlm. 12-13.
2. Diary Johan Japardi.
3. Berbagai sumber daring.