Mohon tunggu...
Veronika Gultom
Veronika Gultom Mohon Tunggu... Programmer/IT Consultant - https://vrgultom.wordpress.com

IT - Data Modeler; Financial Planner

Selanjutnya

Tutup

Artificial intelligence Pilihan

Informasi Tidak Benar dari ChatGPT, Nah loh!

1 Juni 2023   04:04 Diperbarui: 1 Juni 2023   11:47 129
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Seorang pengacara di New York berpotensi terkena sangsi akibat me-refer kepada informasi tidak benar, yaitu informasi mengenai beberapa kasus yang dia pikir akan mendukung "pembenaran" terhadap kasus clientnya. Namun setelah dicari, ternyata contoh-contoh kasus yang disebutkan itu tidak ada. Usut punya usut ternyata dokumen laporan yang disusun oleh salah seorang rekan kerjanya, ditulis dengan bantuan ChatGPT. Jadi informasi mengenai kasus-kasus tadi didapat dari ChatGPT. 

Nah lho, terbukti ChatGPT juga bisa salah! Makanya jangan terlalu percaya diri dengan pekerjaan "orang lain". Sedangkan hasil kerja sesama rekan kerja atau bawahan saja bisa ada kesalahan. Katanya cuma boss yang tidak pernah salah. Artinya ChatGPT bukan boss he..he..he...

Dikatakan bahwa Peter Loduca, telah bekerja bersama Steven Schwartz, rekannya di law firm yang sama, selama 25 tahun. Dan selama itu Steven Schwarts tidak pernah membuat kesalahan dengan memberikan informasi yang tidak benar. Kejadiannya baru kali ini, dan kesalahan itu terjadi karena Steven Schwartz menggunakan ChatGPT untuk mencari informasi dan menyusun dokumen yang kemudian di submit ke pengadilan oleh Peter Loduca. Nah loh, korban teknologi yang akhirnya merugikan rekan kerja dan tentunya firma hukum tempat dia bekerja.

Seharusnya pengacara itu meyakinkan diri dulu. Minimal dia tahu sumber datanya darimana. Jika ChatGPT di-training menggunakan data-data awal dari sumber yang dapat dipercaya, misalkan arsip-arsip pengadilan, dan sudah lolos test oleh pemilik data, yaitu para pejabat pengadilan yang bertanggung jawab akan hal itu, bolehlah dia dengan yakin menggunakan ChatGPT untuk menyusun sebuah dokumen resmi. Itu pun seharusnya dia check & recheck lagi.

Apakah pengacara itu tidak bertanya ulang kepada ChatGPT mengenai contoh-contoh kasus yang informasinya didapat dari ChatGPT? Setidaknya bertanya untuk meyakinkan diri bahwa pertanyaan yang dia maksud dimengerti dengan baik oleh ChatGPT. Seorang pengacara (ahli) biasanya dapat membedakan sesuatu yang benar atau yang meragukan dari pengalaman-pengalamannya selama menjadi seorang pengacara atau ahli apapun itu. Karena saya percaya, semua pekerjaan pasti ada logikanya. Dalam hal ini, seharusnya dia tahu andai jawaban ChatGPT tidak nyambung antara pertanyaan pertama, kedua, ketiga, dst, untuk suatu tema yang sama.

Sedangkan kalau dosen mengatakan sesuatu dan ternyata agak berbeda pengertiannya dengan yang pernah dia katakan sebelumnya, mahasiswa pasti akan mempertanyakan, atau bahkan mencari referensinya di textbook-textbook terkait.

Saya kira dalam kasus pengacara ini, bukan ChatGPT nya yang salah, tetapi orangnya yang mungkin kurang bijak tidak memeriksa ulang hasil kerja ChatGPT. Jangan-jangan dia cuma copy paste hasil jawaban ChatGPT tanpa membacanya.

Maka itu, bijaklah menggunakan alat bantu semacam ChatGPT ini. Check dan recheck tetap perlu dilakukan. ChatGPT memang bisa mengerti bahasa manusia, tetapi mengertinya itu, saya pikir bukan seperti manusia. Robot tetaplah robot. Diperintahkan untuk melakukan A, maka dia akan benar-benar melakukan A. Kalau manusia ada kemungkinan untuk balik bertanya, dengan tujuan mencoba mengerti dengan benar maksud pertanyaan atau meyakinkan diri bahwa perintahnya tidak salah (biasanya kalau dirasa tidak masuk akal). Sedangkan robot, dia hanya dapat dibatasi oleh sesuatu yang sudah diatur di dalam sistem. Misalkan tidak akan menjawab jika itu menyangkut hal-hal mengenai informasi pribadi seseorang, pertimbangan politik, dan lain-lain yang memang sudah ditentukan tidak akan dijawab oleh ChatGPT. Di luar itu, dia hanya akan mengerjakan sebuah pekerjaan sesuai perintah, sekalipun perintahya itu diberikan dalam bahasa natural manusia.

(VRGultom)

Referensi:

https://www.kompas.com/tren/read/2023/05/31/191500165/pengacara-asal-new-york-diperiksa-usai-ketahuan-pakai-chatgpt-untuk-periksa

https://nypost.com/2023/05/30/steven-schwartz-admits-he-used-chatgpt-to-file-bogus-court-doc/

Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun