Mohon tunggu...
William Lionardy
William Lionardy Mohon Tunggu... Ilustrator - Mahasiswa Universitas Pamulang

Hi everyone !! My name is William , I live in Jakarta . I’m a college student at Pamulang University. Usually, I spend time writing or doing research on whatever interests me......so... here I am.. ho ho 😁 comic , movie , and game geeks 🤓

Selanjutnya

Tutup

Artificial intelligence

Pandangan Dunia Pada Teknologi A.I

18 Juni 2023   23:27 Diperbarui: 19 Juni 2023   10:28 452
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Sebuah makalah yang ditulis oleh peneliti OpenAI memperkirakan bahwa 80 persen tenaga kerja AS dapat memiliki setidaknya 10 persen tugas kerja mereka yang terpengaruh oleh L.L.M.s dan bahwa 19 persen pekerja mungkin melihat setidaknya 50 persen tugas mereka terkena dampak.

"Ada indikasi bahwa pekerjaan hafalan akan hilang," kata Oren Etzioni, kepala eksekutif pendiri Allen Institute for AI, sebuah laboratorium penelitian di Seattle.

Risiko Jangka Panjang: Kehilangan Kendali

Beberapa orang yang menandatangani surat itu juga percaya bahwa kecerdasan buatan dapat lepas dari kendali kita atau menghancurkan umat manusia. Tetapi banyak ahli mengatakan itu terlalu berlebihan.

Surat itu ditulis oleh sebuah kelompok dari Future of Life Institute, sebuah organisasi yang didedikasikan untuk mengeksplorasi risiko eksistensial bagi umat manusia. Mereka memperingatkan itu karena A.I. sistem sering mempelajari perilaku tak terduga dari sejumlah besar data yang mereka analisis, mereka dapat menimbulkan masalah serius dan tak terduga.

Mereka khawatir karena perusahaan menyambungkan L.L.M. ke layanan internet lain, sistem ini dapat memperoleh kekuatan yang tidak terduga karena mereka dapat menulis kode komputer mereka sendiri. Mereka mengatakan pengembang akan menciptakan risiko baru jika mereka mengizinkan A.I. sistem untuk menjalankan kode mereka sendiri.

"Jika Anda melihat ekstrapolasi langsung di mana kita berada sekarang hingga tiga tahun dari sekarang, hal-hal menjadi sangat aneh," kata Anthony Aguirre, ahli kosmologi dan fisikawan teoretis di University of California, Santa Cruz dan salah satu pendiri Future of Institut Kehidupan.

"Jika Anda mengambil skenario yang kurang mungkin - di mana hal-hal benar-benar lepas landas, di mana tidak ada tata kelola yang nyata, di mana sistem ini ternyata lebih kuat dari yang kami kira - maka semuanya menjadi sangat, sangat gila," katanya.

Dr. Etzioni mengatakan pembicaraan tentang risiko eksistensial adalah hipotetis. Namun dia mengatakan risiko lain, terutama disinformasi ,bukan lagi spekulasi.

"Sekarang kami memiliki beberapa masalah nyata," katanya. "Mereka bonafid. Mereka membutuhkan reaksi yang bertanggung jawab. Mereka mungkin memerlukan peraturan dan undang-undang."

Setiap teknologi yang kuat dapat disalahgunakan. Saat ini, kecerdasan buatan digunakan untuk banyak tujuan baik termasuk untuk membantu kita membuat diagnosis medis yang lebih baik, menemukan cara baru untuk menyembuhkan kanker, dan membuat mobil kita lebih aman. Sayangnya, saat kemampuan AI kami berkembang, kami juga akan melihatnya digunakan untuk tujuan berbahaya. Karena teknologi AI berkembang begitu pesat, penting bagi kita untuk mulai memperdebatkan cara terbaik bagi AI untuk berkembang secara positif sambil meminimalkan potensi destruktifnya.

Tim Riset : William Lionardy Kurniawan , Putri Maulidatusania , Nia Agustyana ( Mahasiswa Prodi Manajemen Universitas Pamulang , Tangerang Selatan )

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun