Mohon tunggu...
Ken Zachary
Ken Zachary Mohon Tunggu... Mahasiswa - UIN Sunan Kalijaga Yogyakarta

Mahasiswa yang cuman kepengen lulus

Selanjutnya

Tutup

Artificial intelligence

Bagaimana Umat Manusia Akan Punah?

30 Mei 2023   17:15 Diperbarui: 30 Mei 2023   17:23 86
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Getty Images - Galerie Bilderwelt

Jutaan orang akan mati akibat perubahan iklim, dan itu mengerikan; rasanya hampir seperti mengorbankan para korban tersebut untuk memberi tahu orang-orang yang nyaman di negara-negara kaya bahwa mereka mungkin tidak akan terpengaruh secara pribadi dan kemungkinan besar akan dapat melanjutkan kehidupan mereka yang nyaman.

Beberapa peneliti mempelajari skenario risiko ekstrem di mana pemanasan planet jauh lebih bencana daripada yang diproyeksikan. Saya pikir mempelajari hal itu layak, tetapi skenario-skenario ini sangat tidak mungkin terjadi - bukanlah tebakan terbaik dari apa yang akan terjadi.

Jadi alasan mengapa berargumen bahwa perubahan iklim mungkin bukan ancaman yang mengakhiri kehidupan spesies sangat kontroversial bukan karena sainsnya. Ini karena argumen tersebut terasa seperti pemisahan rambut secara intelektual dan mengabaikan masalah yang sangat serius yang ada di depan kita.

Tapi pada dasarnya, saya percaya pada kemampuan kita untuk memecahkan masalah tanpa melebih-lebihkannya, dan saya tidak percaya pada kemampuan kita untuk memecahkan masalah sambil melebih-lebihkannya. 

Anda memerlukan gambaran yang jelas tentang apa yang akan terjadi untuk memperbaikinya. Tindakan iklim yang ditangani dengan pemahaman yang salah tentang ancamannya tidak mungkin menyelamatkan orang-orang yang benar-benar membutuhkan pertolongan.

AI, Perang Nuklir, dan Akhir Dunia

Dalam sebuah artikel di Time, peneliti keselamatan AI (Eliezer Yudkowsky), menulis bahwa "hasil yang paling mungkin dari membangun AI yang lebih cerdas dari manusia di bawah kondisi apa pun yang mirip dengan keadaan saat ini adalah bahwa secara harfiah semua orang di Bumi akan mati." 

Menurutnya, perjanjian internasional baru melawan pembangunan sistem AI yang kuat adalah bagian dari upaya untuk menyelamatkan kita, bahkan jika penegakan perjanjian tersebut berarti melakukan tindakan perang terhadap negara-negara yang tidak mematuhinya.

Ini membuat banyak orang merasa sangat tidak masuk akal. Meskipun Anda yakin bahwa AI mungkin cukup berbahaya, Anda mungkin memerlukan bukti yang lebih meyakinkan bahwa AI benar-benar sangat mematikan untuk mempertimbangkan layak untuk mengambil risiko perang. (Perang juga berbahaya bagi masa depan peradaban manusia, terutama perang dengan potensi eskalasi menjadi pertukaran nuklir.)

Yudkowsky mempertahankan pendapatnya: AI super cerdas yang tidak terkendali kemungkinan besar akan mengakhiri semua kehidupan di Bumi, katanya, dan perang nuklir, meskipun akan sangat buruk, tidak akan melakukannya. Kita seharusnya tidak mencari perang nuklir, tetapi akan menjadi kesalahan jika ketakutan akan perang menghentikan kita untuk memberlakukan perjanjian internasional tentang AI.

Kedua argumen itu, tentu saja, kontroversial. Perang nuklir akan sangat menghancurkan dan membunuh jutaan orang secara langsung. Dapat menjadi lebih bencana jika badai api dari ledakan nuklir menurunkan suhu global dalam jangka waktu yang lama, kemungkinan yang diperdebatkan di antara para ahli dalam ilmu atmosfer yang relevan.

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun