Mohon tunggu...
William Lionardy
William Lionardy Mohon Tunggu... Ilustrator - Mahasiswa Universitas Pamulang

Hi everyone !! My name is William , I live in Jakarta . I’m a college student at Pamulang University. Usually, I spend time writing or doing research on whatever interests me......so... here I am.. ho ho 😁 comic , movie , and game geeks 🤓

Selanjutnya

Tutup

Artificial intelligence

Pandangan Dunia Pada Teknologi A.I

18 Juni 2023   23:27 Diperbarui: 19 Juni 2023   10:28 452
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.

Jaringan saraf adalah sistem matematika yang mempelajari keterampilan dengan menganalisis data. Sekitar lima tahun lalu, perusahaan seperti Google, Microsoft, dan OpenAI mulai membangun jaringan saraf yang belajar dari sejumlah besar teks digital yang disebut model bahasa besar, atau L.L.M.s.

Dengan menentukan pola dalam teks itu, L.L.M.s belajar membuat teks sendiri, termasuk posting blog, puisi, dan program komputer. Mereka bahkan dapat melakukan percakapan.

Teknologi ini dapat membantu pemrogram komputer, penulis, dan pekerja lainnya menghasilkan ide dan melakukan berbagai hal dengan lebih cepat. Tetapi Dr. Bengio dan pakar lainnya juga memperingatkan bahwa L.L.M.s dapat mempelajari perilaku yang tidak diinginkan dan tidak diharapkan.

Sistem ini dapat menghasilkan informasi yang tidak benar, bias, dan beracun. Sistem seperti GPT-4 mendapatkan fakta yang salah dan mengarang informasi, sebuah fenomena yang disebut "halusinasi".

Perusahaan sedang menangani masalah ini. Tetapi para ahli seperti Dr. Bengio khawatir bahwa ketika para peneliti membuat sistem ini lebih kuat, mereka akan menimbulkan risiko baru.

56ed4bc1cc599e3aa8a3340bb9b7040a-648f37dd4addee16af0ff3b2.jpg
56ed4bc1cc599e3aa8a3340bb9b7040a-648f37dd4addee16af0ff3b2.jpg

Risiko Jangka Pendek : Disinformasi 

Karena sistem ini mengirimkan informasi dengan apa yang tampak seperti kepercayaan penuh, mungkin sulit untuk memisahkan kebenaran dari fiksi saat menggunakannya. Para ahli khawatir bahwa orang akan bergantung pada sistem ini untuk saran medis, dukungan emosional, dan informasi mentah yang mereka gunakan untuk mengambil keputusan.

"Tidak ada jaminan bahwa sistem ini akan benar pada tugas apa pun yang Anda berikan kepada mereka," kata Subbarao Kambhampati, profesor ilmu komputer di Arizona State University. Para ahli juga khawatir orang akan menyalahgunakan sistem ini untuk menyebarkan disinformasi. Karena mereka bisa berkomunikasi dengan cara yang mirip manusia, mereka bisa sangat persuasif.

"Kami sekarang memiliki sistem yang dapat berinteraksi dengan kami melalui bahasa alami, dan kami tidak dapat membedakan yang asli dari yang palsu," kata Dr. Bengio.

Risiko Jangka Menengah: Kehilangan Pekerjaan 

Para ahli khawatir bahwa A.I. bisa menjadi "pembunuh pekerjaan". Saat ini, teknologi seperti GPT-4 cenderung melengkapi pekerja manusia. Namun OpenAI mengakui bahwa mereka dapat menggantikan beberapa pekerja, termasuk orang yang memoderasi konten di internet.

Mereka belum bisa menduplikasi pekerjaan pengacara, akuntan atau dokter. Tapi mereka bisa menggantikan paralegal, asisten pribadi, dan penerjemah, teller bank , digital marketing , keamanan cyber , informasi kesehatan , bahkan pengemudi transportasi yang dapat digantikan A.I

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun