Jaringan saraf adalah sistem matematika yang mempelajari keterampilan dengan menganalisis data. Sekitar lima tahun lalu, perusahaan seperti Google, Microsoft, dan OpenAI mulai membangun jaringan saraf yang belajar dari sejumlah besar teks digital yang disebut model bahasa besar, atau L.L.M.s.
Dengan menentukan pola dalam teks itu, L.L.M.s belajar membuat teks sendiri, termasuk posting blog, puisi, dan program komputer. Mereka bahkan dapat melakukan percakapan.
Teknologi ini dapat membantu pemrogram komputer, penulis, dan pekerja lainnya menghasilkan ide dan melakukan berbagai hal dengan lebih cepat. Tetapi Dr. Bengio dan pakar lainnya juga memperingatkan bahwa L.L.M.s dapat mempelajari perilaku yang tidak diinginkan dan tidak diharapkan.
Sistem ini dapat menghasilkan informasi yang tidak benar, bias, dan beracun. Sistem seperti GPT-4 mendapatkan fakta yang salah dan mengarang informasi, sebuah fenomena yang disebut "halusinasi".
Perusahaan sedang menangani masalah ini. Tetapi para ahli seperti Dr. Bengio khawatir bahwa ketika para peneliti membuat sistem ini lebih kuat, mereka akan menimbulkan risiko baru.
Risiko Jangka Pendek : Disinformasi
Karena sistem ini mengirimkan informasi dengan apa yang tampak seperti kepercayaan penuh, mungkin sulit untuk memisahkan kebenaran dari fiksi saat menggunakannya. Para ahli khawatir bahwa orang akan bergantung pada sistem ini untuk saran medis, dukungan emosional, dan informasi mentah yang mereka gunakan untuk mengambil keputusan.
"Tidak ada jaminan bahwa sistem ini akan benar pada tugas apa pun yang Anda berikan kepada mereka," kata Subbarao Kambhampati, profesor ilmu komputer di Arizona State University. Para ahli juga khawatir orang akan menyalahgunakan sistem ini untuk menyebarkan disinformasi. Karena mereka bisa berkomunikasi dengan cara yang mirip manusia, mereka bisa sangat persuasif.
"Kami sekarang memiliki sistem yang dapat berinteraksi dengan kami melalui bahasa alami, dan kami tidak dapat membedakan yang asli dari yang palsu," kata Dr. Bengio.
Risiko Jangka Menengah: Kehilangan Pekerjaan
Para ahli khawatir bahwa A.I. bisa menjadi "pembunuh pekerjaan". Saat ini, teknologi seperti GPT-4 cenderung melengkapi pekerja manusia. Namun OpenAI mengakui bahwa mereka dapat menggantikan beberapa pekerja, termasuk orang yang memoderasi konten di internet.
Mereka belum bisa menduplikasi pekerjaan pengacara, akuntan atau dokter. Tapi mereka bisa menggantikan paralegal, asisten pribadi, dan penerjemah, teller bank , digital marketing , keamanan cyber , informasi kesehatan , bahkan pengemudi transportasi yang dapat digantikan A.I