AI Hallucination adalah fenomena di mana model AI menghasilkan output yang tidak akurat, tidak relevan, atau bahkan fiktif. Meskipun model AI dilatih dengan data yang sangat besar, namun tetap rentan terhadap kesalahan.
Mengapa Ai yang katanya canggih dan hebat bisa berhalusinasi ? Salah satu sebab adalah karena adanya data platihan yang kurang tepat atau kurang sempurna. Biasanya ini terjadi karena beberapa hal, antara lain, bias dalam data, noise dalam data, dan data tidak / kurang representatif.
Data yang dipakai untuk melatih AI seringkali mengandung bias, baik itu bias gender, ras, atau bias lainnya. Hal ini dapat menyebabkan model AI menghasilkan output yang bias pula. Data yang dipakai untuk melatih AI bisa mengandung noise atau data yang tidak relevan, yang dapat mengganggu proses pembelajaran model. Jika data pelatihan AI tidak mewakili semua kemungkinan input yang akan diterima model, maka model akan kesulitan dalam generalisasi.
Sebab lain terjadinya halu AI adalah karena kurangnya pemahaman konteks. Bahasa manusia penuh dengan ambiguitas, seperti kata-kata yang memiliki banyak arti atau kalimat yang dapat ditafsirkan secara berbeda. Model AI seringkali kesulitan dalam memahami nuansa bahasa ini. Konteks suatu percakapan atau teks dapat sangat kompleks dan melibatkan pengetahuan dunia nyata yang luas. Model AI mungkin tidak memiliki pengetahuan yang cukup untuk memahami konteks yang kompleks ini.
Ada juga sebab yang diistilahkan Overfitting. Apa itu? Overfitting adalah sebuah kondisi di mana model AI terlalu "hafal" data pelatihannya sehingga tidak dapat menggeneralisasi dengan baik ke data baru yang belum pernah dilihat sebelumnya. Bayangkan seperti seorang siswa yang menghafal jawaban ujian tanpa benar-benar memahami konsepnya. Ketika diberikan soal yang sedikit berbeda, siswa tersebut akan kesulitan menjawab.
Model yang overfitting terlalu fokus pada data pelatihan sehingga kesulitan dalam menggeneralisasi ke data baru yang belum pernah dilihat sebelumnya. Regularisasi adalah teknik yang digunakan untuk mencegah overfitting, namun jika tidak diterapkan dengan benar, model tetap bisa overfitting.
Sebab ke empat disini adalah pemrosesan bahasa alami yang kompleks. Bahasa manusia memiliki struktur sintaksis dan semantik yang kompleks. Model AI harus mampu memahami struktur ini agar dapat memproses bahasa dengan benar. Pragmatik adalah studi tentang bagaimana konteks mempengaruhi makna. Model AI seringkali kesulitan dalam memahami aspek pragmatik dari bahasa.
Seperti apa AI Hallucination itu? Salah satu contoh nyata dari hal tersebut adalah terjemahan yang salah. Model terjemahan menerjemahkan frasa "out of the blue" menjadi "keluar dari biru" secara harfiah, padahal artinya adalah "tiba-tiba". Sering terjadi pula adanya generasi teks yang tidak koheren (saling berhubungan atau terpadu dengan baik sehingga membentuk kesatuan yang logis, konsisten, dan mudah dipahami). Â Model menghasilkan teks tentang kucing yang bisa terbang dan berbicara, padahal kucing tidak memiliki kemampuan tersebut. Kadang terjadi juga adanya informasi yang salah. Model menjawab pertanyaan "Siapa presiden Indonesia saat ini?" dengan jawaban yang salah.
Mengevaluasi apakah sebuah model AI mengalami halusinasi adalah langkah penting dalam memastikan kualitas dan keandalan output yang dihasilkan. Sejauh ini, ada beberapa metode yang dapat digunakan untuk melakukan evaluasi ini. Yang pertama, adalah evaluasi manual atau penilaian oleh manusia. Para ahli atau pengguna dapat secara langsung menilai output model AI untuk melihat apakah informasi yang diberikan masuk akal, relevan, dan didukung oleh fakta.
Metode yang kedua adalah membandingkan keluaran AI dengan sumber data yang terpercaya. Â Output model dapat dibandingkan dengan sumber data yang telah terverifikasi seperti ensiklopedia, database ilmiah, atau laporan berita.