Mohon tunggu...
APOLLO_ apollo
APOLLO_ apollo Mohon Tunggu... Dosen - Lyceum, Tan keno kinoyo ngopo

Aku Manusia Soliter, Latihan Moksa

Selanjutnya

Tutup

Humaniora Pilihan

ChartGPT Aplikasi Kecerdasan Buatan

30 April 2023   09:48 Diperbarui: 30 April 2023   09:58 606
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
ChartGPT Aplikasi Kecerdasan Buatan/dokpri

Dengan Minerva, para peneliti   telah mendemonstrasikan inovasi penting: apa yang disebut dorongan rantai pemikiran. Pengguna mengawali pertanyaannya dengan teks yang berisi beberapa contoh pertanyaan dan solusi, termasuk penalaran - rangkaian pemikiran yang khas - yang mengarah pada jawaban. Selama inferensi, LLM menggunakan petunjuk ini dan memberikan jawaban langkah demi langkah yang   terlihat seperti argumen. Ini tidak memerlukan pembaruan parameter model dan oleh karena itu tidak diperlukan daya komputasi tambahan untuk penyetelan halus.

Kemampuan untuk bereaksi terhadap rangkaian pemikiran hanya terlihat pada LLM dengan lebih dari 100 miliar parameter. Penemuan semacam itu telah membantu model yang lebih besar meningkat sesuai dengan hukum penskalaan empiris,  kata peneliti Google Research. Mereka yakin: Model yang lebih besar menjadi lebih baik dan lebih baik.

Tetapi ada   suara kritis dari peneliti AI di Google, yakin   LLM tidak akan pernah memiliki kemampuan untuk berpikir dengan cukup baik (atau meniru pemikiran) untuk memecahkan masalah baru secara andal - tidak peduli seberapa besar masalah tersebut. LLM sepertinya hanya berpikir menggunakan template yang pernah ditemui sebelumnya, katanya - baik di data pelatihan atau di prompt pengguna. "Itu tidak dapat secara spontan memahami sesuatu yang belum pernah dilihatnya." 

Model bahasa hanya dapat memproses data pelatihan yang cukup sehingga pola statistik bahasa saja akan memungkinkan mereka untuk menjawab pertanyaan dengan jawaban yang sangat dekat dengan apa yang sudah mereka miliki. terlihat.

Namun, LLM telah memperoleh beberapa keterampilan mengejutkan yang tidak mereka latih secara khusus. Secara khusus, dia mengacu pada tes yang dirancang untuk menunjukkan apakah seseorang memiliki apa yang dikenal sebagai teori pikiran  kemampuan untuk berempati dengan orang lain. Mari kita ambil contoh sederhana ini:  Suharti  menyimpan kacamatanya di dalam laci. Kemudian, tanpa sepengetahuan  Suharti, Budianti  menyembunyikan kacamatanya di bawah bantal. 

Di mana  Suharti  akan mencari kacamatanya terlebih dahulu? Anak-anak hanya bisa menyelesaikan ini dari usia tertentu. Sebelumnya, mereka mengira  Suharti  mengetahui hal yang sama seperti yang mereka lakukan sebagai pengamat, dan menjawab   dia sedang melihat ke bawah bantal.

Dalam eksperimennya dengan LLM atau Large Language Model (LLM) lain dari Google, Model Bahasa untuk Aplikasi Dialog (LaMDA) atau LaMDA (Language Model for Dialogue Applications). Model  LaMDA menjawab dengan benar dalam percakapan yang lebih panjang dari jenis ini. Baginya, ini merupakan indikasi kemampuan LLM untuk secara internal memodelkan niat orang lain. "Model-model ini, yang hanya memprediksi urutan, mengembangkan berbagai keterampilan yang luar biasa, termasuk teori pikiran. Namun dia mengakui   model ini rentan terhadap kesalahan. Dia   tidak yakin apakah penskalaan saja sudah cukup.

Dan bahkan jika LLM mendapat jawaban yang benar, mereka tidak akan mengerti. "Kalau coba tanya sedikit, langsung jelas ini semua kosong. ChatGPT tidak tahu apa yang dibicarakan," katanya. Anda melihat teater boneka dan percaya   boneka itu hidup.

Sejauh ini, LLM masih membuat kesalahan absurd yang tidak akan pernah dilakukan manusia,  yang mempelajari abstraksi konseptual dan pembentukan analogi dalam sistem AI. Oleh karena itu, banyak orang yang khawatir apakah aman untuk melepaskan LLM ke masyarakat tanpa batasan yang jelas.

Dan masalah dalam perdebatan tentang apakah LLM /Large Language Model benar-benar dapat memecahkan masalah baru yang tak terlihat adalah   peneliti tidak memiliki cara untuk menguji kemampuan ini secara komprehensif, tambah Mitchell. "Standar kami saat ini tidak memeriksa berbagai hal secara sistematis. Kami belum benar-benar tahu bagaimana melakukannya." Chollet menganjurkan tes penalaran abstrak yang dia kembangkan, Korpus Penalaran Abstrak.

Sementara beberapa membangun model bahasa yang lebih besar dan lebih besar, yang lain memiliki perhatian serius tentang tren ini. Salah satunya adalah mengingat kumpulan data yang sangat besar dan daya komputasi yang terlibat dalam pelatihan LLM besar, hanya perusahaan dengan sumber daya yang sangat besar yang mampu mengembangkannya. 

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
Mohon tunggu...

Lihat Konten Humaniora Selengkapnya
Lihat Humaniora Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun