Sebuah makalah yang ditulis oleh peneliti OpenAI memperkirakan bahwa 80 persen tenaga kerja AS dapat memiliki setidaknya 10 persen tugas kerja mereka yang terpengaruh oleh L.L.M.s dan bahwa 19 persen pekerja mungkin melihat setidaknya 50 persen tugas mereka terkena dampak.
"Ada indikasi bahwa pekerjaan hafalan akan hilang," kata Oren Etzioni, kepala eksekutif pendiri Allen Institute for AI, sebuah laboratorium penelitian di Seattle.
Risiko Jangka Panjang: Kehilangan Kendali
Beberapa orang yang menandatangani surat itu juga percaya bahwa kecerdasan buatan dapat lepas dari kendali kita atau menghancurkan umat manusia. Tetapi banyak ahli mengatakan itu terlalu berlebihan.
Surat itu ditulis oleh sebuah kelompok dari Future of Life Institute, sebuah organisasi yang didedikasikan untuk mengeksplorasi risiko eksistensial bagi umat manusia. Mereka memperingatkan itu karena A.I. sistem sering mempelajari perilaku tak terduga dari sejumlah besar data yang mereka analisis, mereka dapat menimbulkan masalah serius dan tak terduga.
Mereka khawatir karena perusahaan menyambungkan L.L.M. ke layanan internet lain, sistem ini dapat memperoleh kekuatan yang tidak terduga karena mereka dapat menulis kode komputer mereka sendiri. Mereka mengatakan pengembang akan menciptakan risiko baru jika mereka mengizinkan A.I. sistem untuk menjalankan kode mereka sendiri.
"Jika Anda melihat ekstrapolasi langsung di mana kita berada sekarang hingga tiga tahun dari sekarang, hal-hal menjadi sangat aneh," kata Anthony Aguirre, ahli kosmologi dan fisikawan teoretis di University of California, Santa Cruz dan salah satu pendiri Future of Institut Kehidupan.
"Jika Anda mengambil skenario yang kurang mungkin - di mana hal-hal benar-benar lepas landas, di mana tidak ada tata kelola yang nyata, di mana sistem ini ternyata lebih kuat dari yang kami kira - maka semuanya menjadi sangat, sangat gila," katanya.
Dr. Etzioni mengatakan pembicaraan tentang risiko eksistensial adalah hipotetis. Namun dia mengatakan risiko lain, terutama disinformasi ,bukan lagi spekulasi.
"Sekarang kami memiliki beberapa masalah nyata," katanya. "Mereka bonafid. Mereka membutuhkan reaksi yang bertanggung jawab. Mereka mungkin memerlukan peraturan dan undang-undang."
Setiap teknologi yang kuat dapat disalahgunakan. Saat ini, kecerdasan buatan digunakan untuk banyak tujuan baik termasuk untuk membantu kita membuat diagnosis medis yang lebih baik, menemukan cara baru untuk menyembuhkan kanker, dan membuat mobil kita lebih aman. Sayangnya, saat kemampuan AI kami berkembang, kami juga akan melihatnya digunakan untuk tujuan berbahaya. Karena teknologi AI berkembang begitu pesat, penting bagi kita untuk mulai memperdebatkan cara terbaik bagi AI untuk berkembang secara positif sambil meminimalkan potensi destruktifnya.
Tim Riset : William Lionardy Kurniawan , Putri Maulidatusania , Nia Agustyana ( Mahasiswa Prodi Manajemen Universitas Pamulang , Tangerang Selatan )