Dengan Minerva, para peneliti  telah mendemonstrasikan inovasi penting: apa yang disebut dorongan rantai pemikiran. Pengguna mengawali pertanyaannya dengan teks yang berisi beberapa contoh pertanyaan dan solusi, termasuk penalaran - rangkaian pemikiran yang khas - yang mengarah pada jawaban. Selama inferensi, LLM menggunakan petunjuk ini dan memberikan jawaban langkah demi langkah yang  terlihat seperti argumen. Ini tidak memerlukan pembaruan parameter model dan oleh karena itu tidak diperlukan daya komputasi tambahan untuk penyetelan halus.
Kemampuan untuk bereaksi terhadap rangkaian pemikiran hanya terlihat pada LLM dengan lebih dari 100 miliar parameter. Penemuan semacam itu telah membantu model yang lebih besar meningkat sesuai dengan hukum penskalaan empiris, Â kata peneliti Google Research. Mereka yakin: Model yang lebih besar menjadi lebih baik dan lebih baik.
Tetapi ada  suara kritis dari peneliti AI di Google, yakin  LLM tidak akan pernah memiliki kemampuan untuk berpikir dengan cukup baik (atau meniru pemikiran) untuk memecahkan masalah baru secara andal - tidak peduli seberapa besar masalah tersebut. LLM sepertinya hanya berpikir menggunakan template yang pernah ditemui sebelumnya, katanya - baik di data pelatihan atau di prompt pengguna. "Itu tidak dapat secara spontan memahami sesuatu yang belum pernah dilihatnya."Â
Model bahasa hanya dapat memproses data pelatihan yang cukup sehingga pola statistik bahasa saja akan memungkinkan mereka untuk menjawab pertanyaan dengan jawaban yang sangat dekat dengan apa yang sudah mereka miliki. terlihat.
Namun, LLM telah memperoleh beberapa keterampilan mengejutkan yang tidak mereka latih secara khusus. Secara khusus, dia mengacu pada tes yang dirancang untuk menunjukkan apakah seseorang memiliki apa yang dikenal sebagai teori pikiran  kemampuan untuk berempati dengan orang lain. Mari kita ambil contoh sederhana ini:  Suharti  menyimpan kacamatanya di dalam laci. Kemudian, tanpa sepengetahuan  Suharti, Budianti  menyembunyikan kacamatanya di bawah bantal.Â
Di mana  Suharti  akan mencari kacamatanya terlebih dahulu? Anak-anak hanya bisa menyelesaikan ini dari usia tertentu. Sebelumnya, mereka mengira  Suharti  mengetahui hal yang sama seperti yang mereka lakukan sebagai pengamat, dan menjawab  dia sedang melihat ke bawah bantal.
Dalam eksperimennya dengan LLM atau Large Language Model (LLM) lain dari Google, Model Bahasa untuk Aplikasi Dialog (LaMDA) atau LaMDA (Language Model for Dialogue Applications). Model  LaMDA menjawab dengan benar dalam percakapan yang lebih panjang dari jenis ini. Baginya, ini merupakan indikasi kemampuan LLM untuk secara internal memodelkan niat orang lain. "Model-model ini, yang hanya memprediksi urutan, mengembangkan berbagai keterampilan yang luar biasa, termasuk teori pikiran. Namun dia mengakui  model ini rentan terhadap kesalahan. Dia  tidak yakin apakah penskalaan saja sudah cukup.
Dan bahkan jika LLM mendapat jawaban yang benar, mereka tidak akan mengerti. "Kalau coba tanya sedikit, langsung jelas ini semua kosong. ChatGPT tidak tahu apa yang dibicarakan," katanya. Anda melihat teater boneka dan percaya  boneka itu hidup.
Sejauh ini, LLM masih membuat kesalahan absurd yang tidak akan pernah dilakukan manusia, Â yang mempelajari abstraksi konseptual dan pembentukan analogi dalam sistem AI. Oleh karena itu, banyak orang yang khawatir apakah aman untuk melepaskan LLM ke masyarakat tanpa batasan yang jelas.
Dan masalah dalam perdebatan tentang apakah LLM /Large Language Model benar-benar dapat memecahkan masalah baru yang tak terlihat adalah  peneliti tidak memiliki cara untuk menguji kemampuan ini secara komprehensif, tambah Mitchell. "Standar kami saat ini tidak memeriksa berbagai hal secara sistematis. Kami belum benar-benar tahu bagaimana melakukannya." Chollet menganjurkan tes penalaran abstrak yang dia kembangkan, Korpus Penalaran Abstrak.
Sementara beberapa membangun model bahasa yang lebih besar dan lebih besar, yang lain memiliki perhatian serius tentang tren ini. Salah satunya adalah mengingat kumpulan data yang sangat besar dan daya komputasi yang terlibat dalam pelatihan LLM besar, hanya perusahaan dengan sumber daya yang sangat besar yang mampu mengembangkannya.Â