Mohon tunggu...
Laily Sabrina Hapsari
Laily Sabrina Hapsari Mohon Tunggu... Mahasiswa - Mahasiswa Teknik Informatika Angkatan 2022 UIN Maulana Malik Ibrahim Malang

Saya Mahasiswi Teknik Informatika UIN Malang yang tertarik untuk menulis dan menjelajah pengetahuan dengan sesama

Selanjutnya

Tutup

Ilmu Alam & Tekno

Bias, Privasi, dan Tanggung Jawab Peneliti dalam Era AI generatif

17 September 2024   11:21 Diperbarui: 17 September 2024   11:22 65
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi interaksi AI dengan manusia, Sumber : Freepik.com

Bias, Privasi, dan Tanggung Jawab Peneliti dalam Era AI Generatif

Penggunaan kecerdasan buatan (AI) generatif dalam analisis data kualitatif semakin berkembang seiring dengan pesatnya inovasi teknologi. Model AI seperti GPT, Bard, dan LLaMA kini memiliki kemampuan untuk menganalisis data teks dengan cepat dan efisien, membuka peluang besar dalam penelitian. Namun, seperti yang dijelaskan dalam artikel The ethics of using generative AI for qualitative data analysis karya Davison et al. (2023), penggunaan AI ini membawa risiko etis yang signifikan. 

Tantangan etika tersebut meliputi hak kepemilikan data, privasi, interpretasi hasil, bias, serta tanggung jawab peneliti dalam penggunaan AI. Artikel ini menyoroti bagaimana AI generatif, yang awalnya dimaksudkan untuk meningkatkan efisiensi, justru berpotensi melanggar prinsip-prinsip etis dalam penelitian kualitatif.

Dalam era digital ini, AI generatif telah menarik perhatian banyak peneliti karena kemampuannya mengidentifikasi pola dalam data yang tidak selalu terlihat oleh manusia. Namun, dalam praktiknya, kecepatan dan keakuratan ini sering kali datang dengan biaya yang tinggi, terutama dalam hal pelanggaran etika. 

Salah satu contoh adalah platform ATLAS.ti yang menawarkan analisis data kualitatif berbasis AI, di mana data penelitian dapat diserahkan untuk melatih AI tersebut (Davison et al., 2023). Meskipun terlihat bermanfaat, pendekatan ini menimbulkan dilema terkait hak data dan privasi peserta penelitian. 

Di sinilah letak tantangan terbesar: bagaimana memastikan bahwa teknologi yang kita gunakan tidak merugikan pihak yang terlibat, baik secara langsung maupun tidak langsung. Saya percaya bahwa penting untuk lebih kritis terhadap penggunaan AI dalam analisis kualitatif, karena teknologi ini masih jauh dari sempurna, dan aspek-aspek fundamental seperti privasi serta hak kepemilikan data harus tetap dijaga.

Salah satu tantangan terbesar dalam penggunaan AI generatif untuk analisis data kualitatif adalah masalah hak kepemilikan data dan privasi. Dalam artikel yang ditulis oleh Davison et al. (2023), disebutkan bahwa penelitian kualitatif sering kali melibatkan hubungan jangka panjang antara peneliti dan partisipan, yang berarti data yang dikumpulkan harus dijaga kerahasiaannya. 

Namun, saat data tersebut diserahkan ke entitas komersial untuk melatih AI, hak kepemilikan data dapat menjadi abu-abu. Sebagai contoh, platform seperti ATLAS.ti menawarkan analisis gratis dengan syarat data digunakan untuk melatih model AI. Ini jelas melanggar prinsip-prinsip non-maleficence, atau tidak merugikan, karena peneliti tidak bisa menjamin perlindungan data setelah diserahkan ke pihak ketiga. Dalam survei yang dilakukan pada 2021, ditemukan bahwa 74% responden merasa tidak nyaman membagikan data pribadi mereka dengan perusahaan teknologi besar (Statista, 2021). Ini menggarisbawahi pentingnya menjaga hak kepemilikan dan privasi data dalam penelitian.

Selain itu, AI generatif masih memiliki keterbatasan dalam interpretasi data kualitatif. AI mungkin dapat menemukan pola dengan cepat, tetapi sering kali gagal memahami nuansa yang penting dalam penelitian sosial, seperti ekspresi wajah, bahasa tubuh, atau konteks budaya. Sebagai contoh, Mingers (2008) menjelaskan bahwa data kualitatif harus dianalisis pada tiga level: sintaksis, semantik, dan pragmatik. 

AI, dalam bentuknya yang sekarang, hanya dapat menangani sintaksis---atau analisis struktur teks---sementara aspek semantik dan pragmatik sering kali diabaikan. Hal ini menimbulkan risiko interpretasi yang dangkal atau bias, terutama dalam penelitian yang melibatkan kelompok marjinal atau masalah sosial yang kompleks. Penelitian pada 2023 oleh Ji et al. juga mengungkapkan bahwa AI generatif sering kali "berhalusinasi" atau menghasilkan informasi yang tidak akurat hingga 16% dari total output yang dihasilkan, yang menunjukkan potensi kesalahan signifikan dalam interpretasi data kualitatif.

Masalah lain yang tidak kalah penting adalah bias yang terkandung dalam AI generatif. AI dilatih dengan data yang tersedia secara online, yang cenderung bias terhadap perspektif Barat atau kelompok dominan. OpenAI, dalam pernyataan resmi mereka, mengakui bahwa sistem mereka rentan terhadap bias ini, yang dapat memengaruhi hasil analisis. Dalam penelitian yang dilakukan oleh Bender & Friedman (2018), ditemukan bahwa AI sering kali memperkuat stereotip sosial dan bias, terutama dalam konteks ras, gender, dan kelas sosial. 

Dalam konteks analisis kualitatif, hal ini bisa sangat merugikan karena hasil analisis yang bias dapat menghasilkan kesimpulan yang salah atau tidak adil. Misalnya, penelitian mengenai kelompok terpinggirkan atau konflik sosial dapat dirugikan oleh AI yang memperkuat pandangan dominan, bukannya memberikan pemahaman yang lebih dalam dan inklusif.

Penggunaan AI generatif juga menimbulkan pertanyaan tentang tanggung jawab peneliti. Seperti yang diungkapkan oleh Davison et al. (2023), tanggung jawab epistemik harus tetap ada pada peneliti, meskipun AI membantu dalam proses analisis. AI tidak bisa dijadikan "penulis bersama" atau bertanggung jawab atas hasil analisis, karena algoritma yang digunakan sering kali tidak transparan atau terlalu kompleks untuk dijelaskan. Peneliti harus selalu memverifikasi dan mengkaji ulang hasil analisis yang dihasilkan oleh AI, memastikan bahwa interpretasi yang diberikan sesuai dengan konteks penelitian.

Kesimpulannya, penggunaan AI generatif dalam analisis data kualitatif menawarkan potensi besar dalam hal kecepatan dan efisiensi, tetapi juga membawa tantangan etika yang serius. Hak kepemilikan data, privasi, interpretasi yang mendalam, dan bias dalam hasil analisis adalah beberapa masalah utama yang harus diperhatikan oleh peneliti. 

Davison et al. (2023) secara tegas mengingatkan bahwa teknologi ini tidak boleh digunakan tanpa pengawasan yang ketat dan refleksi kritis terhadap dampaknya. Peneliti harus tetap memegang kendali penuh atas proses analisis dan memastikan bahwa prinsip-prinsip etis tidak dikorbankan demi kemudahan atau kecepatan yang ditawarkan oleh AI.

Dalam konteks ini, diperlukan panduan etis yang dinamis dan adaptif, yang dapat menyesuaikan dengan perkembangan AI generatif di masa depan. Pedoman yang hidup ini, seperti yang diusulkan oleh Davison et al. (2023), harus mencakup pertimbangan terhadap privasi, transparansi, serta tanggung jawab peneliti dalam menjaga integritas data dan interpretasi. Dengan cara ini, kita bisa memanfaatkan kekuatan AI tanpa mengorbankan nilai-nilai dasar penelitian ilmiah yang etis dan bertanggung jawab.

Referensi :

Davison, R. M., Chughtai, H., Nielsen, P., Marabelli, M., Iannacci, F., van Offenbeek, M., Tarafdar, M., Trenz, M., Techatassanasoontorn, A. A., Daz Andrade, A., & Panteli, N. (2023). The ethics of using generative AI for qualitative data analysis. Information Systems Journal, 34(5), 1433--1439. https://doi.org/10.1111/isj.12504

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Ilmu Alam & Tekno Selengkapnya
Lihat Ilmu Alam & Tekno Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun