Entah berapa digit kalau dikonversikan ke dalam rupiah. Coba saja di Google (tidak perlu menggunakan ChatGPT, karena mengonversi menggunakan Google saja sudah ok).
Apakah ChatGPT ada kemungkinan salah juga? Ada! Hanya nasib sialnya si Bard mungkin, membuat kesalahan pada demonya yang pertama kali.Â
Manusia dengan kecerdasan asli saja bisa salah apalagi mesin hasil buatan manusia. Bedanya, kesalahan mesin harus diperbaiki oleh manusia sebagai pembuatnya, sedangkan kesalahan manusia dapat diperbaiki atas kemauan diri sendiri (baca: kesadaran) walau mungkin ada bantuan dari orang lain. Yang jelas, tidak mungkin mesin memperbaiki kesalahan manusia. Kalau mencegah ketidak ketelitian manusia, itu adalah salah satu tujuan dibuatnya sebuah bentuk teknologi AI. Mesin tidak punya kesadaran. Dia hanya bekerja sesuai perintah.
Namun demikian, kesalahan yang terjadi pada robot-robot itu menurut saya hanya karena ada sesuatu yang terlewat sehingga tidak teruji, misalnya salah logika, sehingga salah mengambil data. Bentuk kesalahan kedua adalah informasi (sebagai output) yang dihasilkan tidak benar karena memang datanya sejak awal sudah tidak benar.
Kemungkinan pertama, sangat mudah diperbaiki oleh para pembuatnya. Kalaupun tidak terdeteksi oleh para penguji mereka, mereka dapat membuat SOP seperti yang diberlakukan oleh perusahaan-perusahaan software besar.Â
Kabarnya Google pun memberlakukan hal ini. Jika seseorang menemukan kesalahan dalam sebuah software, atau biasa disebut bug, maka dia dapat memberitahukannya kepada perusahaan tersebut dan  jika terbukti akan mendapatkan imbalan.Â
Maka kesalahan ini bisa dianggap "lebih mudah" diperbaiki. Itu juga sebabnya maka ada istilah naik versi atau upgrade version. Karena ada perbaikan-perbaikan dan tambahan-tambahan  fitur/kemampuan pada fungsi mesin tersebut.
Bagaimana dengan contoh kasus si Bard yang, menurut saya, bisa juga terjadi pada ChatGPT atau robot-robot lain dengan teknologi serupa? Ada kemungkinan informasi yang dihasilkan sebagai output, salah karena data yang terbaca dan terpanggil memang seperti itu adanya. Maka, dalam hal ini harus ditelusuri sumber informasinya.
Seperti disebutkan dalam blog openAI, ChatGPT menggunakan metoda Reinforcement Learning from Human Feedback (RLHF), di mana content awal berasal dari beberapa orang yang diminta menyediakan jawaban atau response terhadap sebuah topik. Kemudian ada beberapa langkah lagi yang dilakukan untuk menjadikannya seperti serangkaian tanya jawab antara dua orang.Â
Bisa saja toh, ada kesalahan di setiap langkah yang dilakukan. Apalagi jika tidak melibatkan ahlinya pada topik yang sesuai. Seperti yang terjadi pada Bard, di mana beberapa astronom yang adalah para ahli terkait topik yang diajukan, menyatakan pernyataan Bard salah.