... Selain itu, ketika pengguna mengajukan pertanyaan yang tidak memiliki jawaban yang ada, ChatGPT juga mungkin membuat fakta-fakta untuk memberikan tanggapan."
Situs Futurism mencatat beberapa contoh konten yang dihasilkan mesin yang diterbitkan di CNET salah dan penuh dengan "kesalahan bodoh". CNET seharusnya tahu hal ini bisa terjadi, karena OpenAI mempublikasikan peringatan tentang output yang salah:
"ChatGPT kadang-kadang menulis jawaban yang terdengar masuk akal tetapi salah atau tidak masuk akal."
CNET mengklaim telah mengirimkan artikel yang dihasilkan mesin untuk diedit ulang oleh manusia sebelum dipublikasikan.
8. ChatGPT Tidak Alami Karena Tidak Diversifikasi
Paper penelitian, How Close is ChatGPT to Human Experts?, juga mencatat bahwa komunikasi manusia bisa memiliki makna tidak langsung, yang membutuhkan perubahan topik untuk dipahami. ChatGPT terlalu literal, yang menyebabkan jawaban kadang kala melewatkan tujuannya karena AI melewatkan topik yang sebenarnya.
Peneliti menulis:
"Jawaban ChatGPT secara umum fokus pada pertanyaan yang diberikan, sedangkan manusia diversifikasi dan mudah beralih ke topik lain.
Dalam hal kekayaan konten, manusia lebih diversifikasi dalam aspek yang berbeda, sementara ChatGPT lebih memfokuskan pada pertanyaan itu sendiri.
Manusia bisa menjawab makna tersembunyi dari pertanyaan berdasarkan akal sehat dan pengetahuan mereka sendiri, tetapi ChatGPT hanya bergantung pada kata-kata literal dari pertanyaan yang ada..."
Manusia lebih mampu diversifikasi dari pertanyaan literal, yang penting menjawab pertanyaan "apa tentang" jenis.
Misalkan, jika saya bertanya: