Mohon tunggu...
Agustinus Darto Iwan Setiawan
Agustinus Darto Iwan Setiawan Mohon Tunggu... Lainnya - Menulis bukan karena tahu banyak, tapi ingin tahu lebih banyak. (Darto, 22 Oktober 2024)

Menulis sebagai salah satu cara untuk healing :)

Selanjutnya

Tutup

Artificial intelligence

Membongkar AI Hallucination, Kesalahan Fatal Si Cerdas!

18 November 2024   08:18 Diperbarui: 18 November 2024   09:18 94
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
gambar karya Darto + Dall-e

AI Hallucination adalah fenomena di mana model AI menghasilkan output yang tidak akurat, tidak relevan, atau bahkan fiktif. Meskipun model AI dilatih dengan data yang sangat besar, namun tetap rentan terhadap kesalahan.

Mengapa Ai yang katanya canggih dan hebat bisa berhalusinasi ? Salah satu sebab adalah karena adanya data platihan yang kurang tepat atau kurang sempurna. Biasanya ini terjadi karena beberapa hal, antara lain, bias dalam data, noise dalam data, dan data tidak / kurang representatif.

Data yang dipakai untuk melatih AI seringkali mengandung bias, baik itu bias gender, ras, atau bias lainnya. Hal ini dapat menyebabkan model AI menghasilkan output yang bias pula. Data yang dipakai untuk melatih AI bisa mengandung noise atau data yang tidak relevan, yang dapat mengganggu proses pembelajaran model. Jika data pelatihan AI tidak mewakili semua kemungkinan input yang akan diterima model, maka model akan kesulitan dalam generalisasi.

Sebab lain terjadinya halu AI adalah karena kurangnya pemahaman konteks. Bahasa manusia penuh dengan ambiguitas, seperti kata-kata yang memiliki banyak arti atau kalimat yang dapat ditafsirkan secara berbeda. Model AI seringkali kesulitan dalam memahami nuansa bahasa ini. Konteks suatu percakapan atau teks dapat sangat kompleks dan melibatkan pengetahuan dunia nyata yang luas. Model AI mungkin tidak memiliki pengetahuan yang cukup untuk memahami konteks yang kompleks ini.

Ada juga sebab yang diistilahkan Overfitting. Apa itu? Overfitting adalah sebuah kondisi di mana model AI terlalu "hafal" data pelatihannya sehingga tidak dapat menggeneralisasi dengan baik ke data baru yang belum pernah dilihat sebelumnya. Bayangkan seperti seorang siswa yang menghafal jawaban ujian tanpa benar-benar memahami konsepnya. Ketika diberikan soal yang sedikit berbeda, siswa tersebut akan kesulitan menjawab.

Model yang overfitting terlalu fokus pada data pelatihan sehingga kesulitan dalam menggeneralisasi ke data baru yang belum pernah dilihat sebelumnya. Regularisasi adalah teknik yang digunakan untuk mencegah overfitting, namun jika tidak diterapkan dengan benar, model tetap bisa overfitting.

Sebab ke empat disini adalah pemrosesan bahasa alami yang kompleks. Bahasa manusia memiliki struktur sintaksis dan semantik yang kompleks. Model AI harus mampu memahami struktur ini agar dapat memproses bahasa dengan benar. Pragmatik adalah studi tentang bagaimana konteks mempengaruhi makna. Model AI seringkali kesulitan dalam memahami aspek pragmatik dari bahasa.

Seperti apa AI Hallucination itu? Salah satu contoh nyata dari hal tersebut adalah terjemahan yang salah. Model terjemahan menerjemahkan frasa "out of the blue" menjadi "keluar dari biru" secara harfiah, padahal artinya adalah "tiba-tiba". Sering terjadi pula adanya generasi teks yang tidak koheren (saling berhubungan atau terpadu dengan baik sehingga membentuk kesatuan yang logis, konsisten, dan mudah dipahami).  Model menghasilkan teks tentang kucing yang bisa terbang dan berbicara, padahal kucing tidak memiliki kemampuan tersebut. Kadang terjadi juga adanya informasi yang salah. Model menjawab pertanyaan "Siapa presiden Indonesia saat ini?" dengan jawaban yang salah.

Mengevaluasi apakah sebuah model AI mengalami halusinasi adalah langkah penting dalam memastikan kualitas dan keandalan output yang dihasilkan. Sejauh ini, ada beberapa metode yang dapat digunakan untuk melakukan evaluasi ini. Yang pertama, adalah evaluasi manual atau penilaian oleh manusia. Para ahli atau pengguna dapat secara langsung menilai output model AI untuk melihat apakah informasi yang diberikan masuk akal, relevan, dan didukung oleh fakta.

Metode yang kedua adalah membandingkan keluaran AI dengan sumber data yang terpercaya.  Output model dapat dibandingkan dengan sumber data yang telah terverifikasi seperti ensiklopedia, database ilmiah, atau laporan berita.

Atau dapat pula dengan metode ketiga, yaitu pengujian dengan pertanyaan yang disusun khusus. Pertanyaan yang dirancang untuk mengungkap ke-tidakkonsisten-an, yaitu memberikan pertanyaan yang membutuhkan pemahaman mendalam tentang suatu topik atau yang memiliki jawaban yang jelas. Atau dengan memberikan pertanyaan yang memerlukan model untuk melakukan penalaran logis atau inferensi.

Metode keempat, evaluasi berbasis tugas. Mengevaluasi model pada tugas-tugas yang relevan dengan penerapannya, seperti menjawab pertanyaan, menghasilkan teks, atau menerjemahkan bahasa. Menguji model pada berbagai skenario yang berbeda untuk melihat bagaimana model merespons input yang beragam.

Evaluasi AI Hallucination memang tidak mudah, dan ada beberapa tantangan didalamnya. Tantangan terbesar adalah subyektivitas manuasi.  Penilaian manusia dapat bersifat subyektif, terutama untuk tugas yang kompleks seperti evaluasi kualitas teks. Tantangan kedua, metrik evaluasi yang ada mungkin tidak selalu menangkap semua jenis halusinasi. Dan yang terakhir,  Model AI terus berkembang, sehingga metode evaluasi juga perlu terus disesuaikan.

Misalnya, jika kita ingin mengevaluasi model AI yang dirancang untuk menjawab pertanyaan tentang sejarah. Kita dapat memberikan pertanyaan  "Siapa Menteri Pendidikan Indonesia yang pertama?" dan membandingkan jawaban model dengan fakta sejarah yang sudah diketahui. Atau dengan memberikan pertanyaan yang tidak konsisten, misal, "Kapan dinosaurus hidup bersama manusia?" untuk melihat apakah model dapat mengenali ke-tidakkonsisten-an dalam pertanyaan.

Mengevaluasi halusinasi pada model AI adalah proses yang kompleks dan membutuhkan pendekatan yang komprehensif. Kombinasi antara evaluasi manual dan otomatis, serta penggunaan berbagai jenis pertanyaan dan tugas, dapat membantu kita mendapatkan pemahaman yang lebih baik tentang kinerja model dan mengidentifikasi area yang perlu ditingkatkan.

Memang ada sih cara mencegah AI Hallucination, seperti peningkatan kualitas data pelatihan, yaitu dengan membersihkan data, menghilangkan bias, dan memastikan data representatif. Cara lain dengan pengembangan algoritma yang lebih baik dengan menggunakan arsitektur model yang lebih canggih dan teknik pembelajaran yang lebih efektif. Atau dengan cara melakukan evaluasi pada berbagai jenis data dan metrik untuk mengidentifikasi kelemahan model.

Atau bisa pula mencegah AI Hallucination dengan memberikan penjelasan kepada pengguna tentang keterbatasan model AI dan melibatkan manusia dalam proses pengembangan dan pemantauan model AI.

Setelah mengetahui adanya AI hallucination, ada beberapa langkah yang dapat diambil untuk mengatasi dan mencegah terjadinya kembali. Langkah pertama, analisis penyebab, dengan memeriksa apakah ada bias, ketidakakuratan, atau ketidakkonsistenan dalam data yang digunakan untuk melatih model. Periksa apakah arsitektur model yang digunakan sudah sesuai dengan tugas yang diberikan. Lakukan eksperimen dengan berbagai macam input untuk mengidentifikasi pola-pola halusinasi yang terjadi.

Langkah kedua, perbaikan model. Hapus data yang tidak relevan, berisik, atau bias dari data pelatihan. Tambahkan data baru yang relevan untuk meningkatkan generalisasi model.

Langkah selanjutnya atau yang ketiga adalah implementasi mekanisme pencegahan. Terapkan filter untuk menyaring output yang tidak masuk akal atau tidak relevan. Tambahkan mekanisme verifikasi untuk memastikan akurasi output model. Berikan penjelasan kepada pengguna tentang keterbatasan model dan kemungkinan terjadinya halusinasi. Lakukan pemantauan secara berkala terhadap kinerja model untuk mendeteksi dini adanya halusinasi.

Langkah keempat, pengembangan algoritma deteksi halusinasi. Gunakan teknik statistik untuk mengidentifikasi pola-pola yang mengindikasikan terjadinya halusinasi. Latih model lain untuk mendeteksi output yang dihasilkan oleh model utama yang kemungkinan merupakan halusinasi.

Yang terakhir , atau kelima, kolaborasi dengan pakar. Mintalah pakar di bidang terkait untuk memvalidasi hasil yang dihasilkan oleh model. Bekerja sama dengan pakar untuk menyusun prompt yang lebih baik dan lebih spesifik.

Dan yang penting untuk diingat, tidak ada solusi sempurna. Halusinasi AI adalah tantangan yang kompleks dan sulit dihilangkan sepenuhnya. Kombinasi dari berbagai teknik diperlukan untuk mengatasi masalah ini. Kinerja model perlu terus dievaluasi dan ditingkatkan seiring waktu. Dengan menerapkan langkah-langkah di atas, kita dapat mengurangi risiko terjadinya AI hallucination dan meningkatkan kepercayaan terhadap sistem AI.

AI Hallucination adalah tantangan yang kompleks dalam pengembangan AI. Dengan memahami akar penyebabnya dan menerapkan strategi mitigasi yang tepat, kita dapat mengembangkan model AI yang lebih akurat dan dapat diandalkan.

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

HALAMAN :
  1. 1
  2. 2
  3. 3
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun