Mohon tunggu...
Veronika Gultom
Veronika Gultom Mohon Tunggu... https://vrgultom.wordpress.com

IT - Data Modeler | Teknologi untuk semua orang, maka semua orang perlu melek teknologi

Selanjutnya

Tutup

Inovasi Artikel Utama

Akankah Era Banjir Informasi Berakhir dengan Berkembangnya Mesin Penjawab AI?

15 Februari 2023   20:51 Diperbarui: 16 Februari 2023   13:00 1096
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Perkembangan IPTEK (IPC Digital via nasional.kompas.com)

Dengan mesin pencari Google, pengguna disajikan begitu banyak data, berupa link ke sumber informasi, ketika kita melakukan pencarian. Tergantung "keyword" yang kita masukan.

Biasanya saya menggunakan apostrophe atau tanda kutip jika ingin membatasi pencarian hanya pada kalimat (minimal dua kata) yang ingin saya cari. Misalkan "IBM Singapore". Maka Google akan menampilkan daftar link dengan judul mayoritas mengandung kata "IBM Singapore" sekalipun lokasi saya berada di Indonesia.

Setidaknya itulah yang tampil di halaman pertama sampai kedua. Biasanya saya hanya akan melihat sampai maksimal halaman ke-2 saja. Itu pun kalau benar-benar tidak menemukan judul link yang mendekati apa yang saya cari. Selanjutnya saya akan mengganti keyword pencarian dengan harapan mendapatkan apa yang saya perlukan di halaman pertama. 

Ada beberapa cara untuk membatasi pencarian di Google, namun tetap saja, link yang diberikan benar-benar semua link yang didapat oleh mesin pencari Google sesuai dengan perintah (input) yang diberikan pengguna. Dan Selanjutnya keputusan untuk memilih link ada di tangan pengguna.

Kalau dipikir-pikir, mengapa Google menampilkan daftar link sampai sebegitu banyaknya? Padahal orang menggunakan Google untuk mendapatkan informasi dengan cepat. Tidak mungkin pengguna membuka semua link yang muncul. Berasa banjir informasi karena kebanyakan. Di samping itu tidak ada filter apakah informasinya hoax atau bukan. Pengguna diminta menentukan sendiri informasi mana yang akan dia pakai atau ambil.

Dengan kemunculan ChatGPT dan teman-temannya, apakah era banyak link, atau jika boleh dikatakan sebagai banjir informasi akan berakhir?

Lantas bagaimana nasib situs-situs Internet yang tidak terlalu dapat dipercaya beritanya, atau yang cuma copy paste hasil nyolong atau comot sebagian dari sana sini dan tidak terlalu update juga beritanya?

Bagaimana dengan nasib para wartawan media online yang sering membuat judul-judul yang kurang sesuai dengan isi berita hanya demi menarik perhatian calon pembaca? Apakah mungkin mereka jadi bersaing dengan ChatGPT yang konon katanya dapat memberikan informasi lebih baik. Bahkan banyak yang berharap ChatGPT dikembangkan menjadi lebih baik daripada versi yang sekarang ada.

ilustrasi: banjir informasi | sumber: www.international-careers.com
ilustrasi: banjir informasi | sumber: www.international-careers.com

Eh robot bisa hoax atau bisa salah juga ya? Bisa dong! Buktinya mesin penjawab Google, si Bard, yang katanya dibuat untuk menyaingi ChatGPT, membuat kesalahan dalam demo pertamanya hingga membuat saham google turun USD 100 Billion. 

Entah berapa digit kalau dikonversikan ke dalam rupiah. Coba saja di Google (tidak perlu menggunakan ChatGPT, karena mengonversi menggunakan Google saja sudah ok).

Apakah ChatGPT ada kemungkinan salah juga? Ada! Hanya nasib sialnya si Bard mungkin, membuat kesalahan pada demonya yang pertama kali. 

Manusia dengan kecerdasan asli saja bisa salah apalagi mesin hasil buatan manusia. Bedanya, kesalahan mesin harus diperbaiki oleh manusia sebagai pembuatnya, sedangkan kesalahan manusia dapat diperbaiki atas kemauan diri sendiri (baca: kesadaran) walau mungkin ada bantuan dari orang lain. Yang jelas, tidak mungkin mesin memperbaiki kesalahan manusia. Kalau mencegah ketidak ketelitian manusia, itu adalah salah satu tujuan dibuatnya sebuah bentuk teknologi AI. Mesin tidak punya kesadaran. Dia hanya bekerja sesuai perintah.

Namun demikian, kesalahan yang terjadi pada robot-robot itu menurut saya hanya karena ada sesuatu yang terlewat sehingga tidak teruji, misalnya salah logika, sehingga salah mengambil data. Bentuk kesalahan kedua adalah informasi (sebagai output) yang dihasilkan tidak benar karena memang datanya sejak awal sudah tidak benar.

Kemungkinan pertama, sangat mudah diperbaiki oleh para pembuatnya. Kalaupun tidak terdeteksi oleh para penguji mereka, mereka dapat membuat SOP seperti yang diberlakukan oleh perusahaan-perusahaan software besar. 

Kabarnya Google pun memberlakukan hal ini. Jika seseorang menemukan kesalahan dalam sebuah software, atau biasa disebut bug, maka dia dapat memberitahukannya kepada perusahaan tersebut dan  jika terbukti akan mendapatkan imbalan. 

Maka kesalahan ini bisa dianggap "lebih mudah" diperbaiki. Itu juga sebabnya maka ada istilah naik versi atau upgrade version. Karena ada perbaikan-perbaikan dan tambahan-tambahan  fitur/kemampuan pada fungsi mesin tersebut.

Bagaimana dengan contoh kasus si Bard yang, menurut saya, bisa juga terjadi pada ChatGPT atau robot-robot lain dengan teknologi serupa? Ada kemungkinan informasi yang dihasilkan sebagai output, salah karena data yang terbaca dan terpanggil memang seperti itu adanya. Maka, dalam hal ini harus ditelusuri sumber informasinya.

Seperti disebutkan dalam blog openAI, ChatGPT menggunakan metoda Reinforcement Learning from Human Feedback (RLHF), di mana content awal berasal dari beberapa orang yang diminta menyediakan jawaban atau response terhadap sebuah topik. Kemudian ada beberapa langkah lagi yang dilakukan untuk menjadikannya seperti serangkaian tanya jawab antara dua orang. 

Bisa saja toh, ada kesalahan di setiap langkah yang dilakukan. Apalagi jika tidak melibatkan ahlinya pada topik yang sesuai. Seperti yang terjadi pada Bard, di mana beberapa astronom yang adalah para ahli terkait topik yang diajukan, menyatakan pernyataan Bard salah.

pertanyaan dan jawaban Bard dalam demo pertamanya (sumber: twitter.com)
pertanyaan dan jawaban Bard dalam demo pertamanya (sumber: twitter.com)

sanggahan ahli atas jawaban Bard (sumber: twitter.com)
sanggahan ahli atas jawaban Bard (sumber: twitter.com)

Hanya saja, kesalahan tersebut dapat diperbaiki dengan memanfaatkan respon pengguna. 

Ibarat dalam ujian sekolah. Jika guru menyatakan jawaban atas sebuah pertanyaan adalah salah, maka murid-murid seharusnya mencari tahu jawaban yang benar agar tidak membuat kesalahan yang sama untuk pertanyaan dengan topik sama. Apalagi jika pengguna sekalian memberikan jawaban yang benar. 

Ibarat dua orang yang sedang berdiskusi. Salah seorang asal bicara, lalu kemudian disanggah oleh lawan bicaranya dengan memberikan fakta-fakta yang meyakinkan. Maka jawaban si lawan bicara tersebut direkam di kepala orang pertama sebagai masukan karena dia mengakui sanggahan lawan bicara adalah benar. 

Kemudian dia berbicara lagi dengan orang lain mengenai topik yang sama, maka rekaman pembicaraan sebelumnya diulang sehingga dia terdengar seperti seorang ahli karena dapat memberikan fakta-fakta yang sepertinya benar. 

Dalam hal robot AI, tentu ada tata cara perekaman respon pemirsa sebelum mengakui bahwa masukan dari pemirsa adalah benar, untuk kemudian ditandai sebagai jawaban yang lebih ok untuk selanjutnya.

Kembali ke judul, jika teknologi AI semacam chatGPT dan Bard ini berkembang dan menjadi trend? Akankah era banjir informasi berakhir? 

Bagaimana pula nasib media-media online yang isinya kurang bermutu? Jika dulu alamat website mereka masih ada kemungkinan dimunculkan oleh mesin pencari, sehingga ada kemungkinan diklik, apakah sekarang mereka harus mengandalkan beriklan di media lain agar terbaca oleh pemirsa? Atau haruskah mereka menjadi salah satu penyumbang konten dalam pengembangan teknologi mesin penjawab AI? (VRGultom)

Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI

HALAMAN :
  1. 1
  2. 2
  3. 3
Mohon tunggu...

Lihat Konten Inovasi Selengkapnya
Lihat Inovasi Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun