Yuval Noah Harari memukul gong peringatan. Dunia ini sudah penuh dengan kebohongan, ilusi, dan narasi yang dibelokkan. Sebelumnya perlu diketahui bahwa Yuval Noah Harari adalah seorang sejarawan, filsuf, dan penulis asal Israel yang lahir pada 24 Februari 1976 di Kiryat Ata, Israel. Ia memperoleh gelar doktor (Ph.D.) dalam sejarah dari Universitas Oxford pada tahun 2002. Harari adalah profesor di Departemen Sejarah Universitas Ibrani Yerusalem.
Penelitiannya berfokus pada sejarah dunia, evolusi manusia, dan hubungan antara teknologi, biologi, dan masyarakat. Tapi dengan Artificial Intelligence atau Kecerdasan Buatan (red-AI), ancaman itu bukan lagi gelombang, melainkan tsunami. Informasi yang salah, kata Harari, adalah racun. Racun yang bisa menghancurkan bahkan peradaban yang paling maju. Dan celakanya, AI justru mempercepat penyebaran racun itu.
Harari tidak anti-AI. Dia tahu, teknologi ini bisa jadi pisau bedah yang menyelamatkan, tetapi bisa juga jadi pisau dapur yang menusuk. Semua tergantung siapa yang memegangnya. Tapi di sinilah letak masalahnya. Saat ini, AI adalah alat tanpa pengawas, tanpa aturan main yang jelas.
Sejarah mencatat, bukan fakta, melainkan narasi yang menggerakkan manusia. Dari revolusi hingga perang dunia, manusia lebih percaya pada cerita daripada kebenaran. Dengan AI, kemampuan menciptakan cerita semakin tak terbatas. Harari melihat potensi bahaya di sini. AI bisa menjadi "penulis ulung" yang menciptakan narasi-narasi berbahaya, yang mampu memanipulasi opini publik secara masif. Ia khawatir, narasi palsu yang dirancang AI akan lebih berbahaya daripada senjata nuklir.
Harari juga menyoroti masalah yang tak kalah pelik: krisis kepercayaan pada institusi. Institusi seperti jurnalis, hakim, dan ilmuwan dulunya adalah benteng terakhir kebenaran. Tapi kini, algoritma media sosial merongrongnya. Algoritma itu, tanpa niat jahat sekalipun, lebih mementingkan engagement daripada keakuratan. Hasilnya? Informasi palsu menyebar lebih cepat dari apapun. Kasus di Myanmar menjadi contoh nyata. Kebencian terhadap Rohingya yang diperparah algoritma Facebook, menurut Harari, adalah bencana kemanusiaan yang seharusnya bisa dicegah.
Dalam demokrasi, kata Harari, informasi adalah pondasinya. Ketika teknologi informasi berubah, demokrasi ikut goyah. Siapa yang mengontrol informasi, dialah yang menentukan arah demokrasi. Di era algoritma, tantangan ini semakin nyata. Siapa yang memastikan AI tidak disalahgunakan untuk memutarbalikkan fakta atau memperkuat posisi pemimpin otoriter?
Harari tidak menyerah. Solusinya ada, katanya. Regulasi. Bukan aturan setengah hati, melainkan regulasi yang ketat. Ia percaya, institusi yang kuat adalah kunci. Tapi institusi itu harus cepat beradaptasi dengan era digital, atau mereka akan tenggelam.
Ada satu analogi menarik dari Harari: informasi itu seperti makanan. Dulu, informasi begitu langka, seperti makanan di masa paceklik. Kini, kita dibanjiri informasi seperti orang yang dimanjakan all-you-can-eat. Bedanya, banyak informasi itu seperti junk food---tidak sehat, penuh kebencian, penuh ketakutan. "Kalau Anda tidak hati-hati memilih informasi, pikiran Anda akan sakit," ujar Harari.
Ketakutan terbesar Harari adalah manusia kehilangan kontak dengan realitas. AI bisa menciptakan dunia maya yang terlihat begitu nyata, hingga kita lupa mana yang faktual dan mana yang fantasi. Tapi ironisnya, AI juga bisa menjadi alat untuk memahami diri kita lebih baik. Ia menyebut AI seperti dokter atau terapis, yang mampu membaca emosi kita lebih baik dari kita sendiri. Namun, tetap ada pertanyaan besar: bagaimana kita menjaga kendali?
Harari tidak hanya mengkritik; dia menawarkan solusi. Regulasi global yang transparan adalah langkah pertama. Ia juga menekankan pentingnya literasi digital. Masyarakat harus belajar memilih informasi yang sehat, sama seperti memilih makanan yang bergizi. Dan yang tak kalah penting, institusi harus tetap menjadi penjaga kebenaran, meski tekanan datang dari segala arah.