Mohon tunggu...
Fadhillah Putri Triana
Fadhillah Putri Triana Mohon Tunggu... Mahasiswa - Mahasiswa UIN Maulana Malik Ibrahim Malang

Saya mahasiswa aktif program studi Teknik Informatika UIN Maulana Malik Ibrahim Malang. Memiliki motto untuk melakukan yang terbaik dan terus berkembang.

Selanjutnya

Tutup

Ilmu Alam & Tekno

Solusi Adversial dalam Mengatasi Bias Algoritma untuk Keputusan Sosial

10 Oktober 2024   23:14 Diperbarui: 10 Oktober 2024   23:19 51
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Solusi Adversarial dalam Mengatasi Bias Algoritma untuk Keputusan Sosial

 Dalam era digital ini, keadilan dalam pembelajaran mesin telah menjadi isu krusial, terutama ketika algoritma digunakan untuk mendukung pengambilan keputusan di bidang kritis seperti peradilan, keuangan, dan kesehatan. 

Artikel berjudul "Learning Fair Representations via an Adversarial Framework" karya Huadong Qiu dan rekan-rekannya (2023) menawarkan solusi penting dalam mengatasi bias yang sering melekat pada algoritma pembelajaran mesin.

 Studi ini menggarisbawahi bahwa banyak model pembelajaran mesin, ketika dilatih dengan data historis, dapat menurunkan keputusan yang diskriminatif berdasarkan atribut terlindungi seperti ras dan gender. 

Misalnya, di sektor peradilan, penelitian oleh Angwin et al. (2016) menunjukkan bahwa algoritma penilaian risiko di AS cenderung menilai terdakwa Afrika-Amerika dengan risiko lebih tinggi dibandingkan terdakwa kulit putih. Hal ini membuktikan bahwa tanpa intervensi yang tepat, teknologi yang seharusnya netral justru dapat memperkuat ketidakadilan sosial yang sudah ada.

Pendekatan yang ditawarkan Qiu et al. (2023) untuk mengatasi masalah ini adalah melalui kerangka kerja adversarial yang bertujuan untuk belajar representasi laten yang adil. 

Representasi ini dihasilkan untuk memastikan bahwa distribusi data antar kelompok terlindungi secara statistik serupa, sambil tetap mempertahankan informasi yang diperlukan untuk klasifikasi. 

Dalam studi ini, hasil eksperimen pada empat dataset dunia nyata memperlihatkan keefektifan metode ini, khususnya pada prediksi risiko kredit dan pendapatan. 

Dengan meminimalkan jarak distribusi antara kelompok terlindungi, metode ini tidak hanya mengurangi bias langsung tetapi juga bias tidak langsung yang sering muncul akibat atribut terkait. Metode ini menjanjikan solusi yang lebih komprehensif daripada pendekatan penghapusan atribut sederhana yang sering kali tidak memadai dalam mencegah diskriminasi.

***

Keadilan dalam sistem pembelajaran mesin menjadi semakin penting karena banyak keputusan kritis kini diotomatisasi melalui algoritma berbasis data. Dalam artikel mereka, Huadong Qiu et al. (2023) mengusulkan solusi berbasis adversarial framework untuk menghasilkan representasi data yang adil, yang berfokus pada keadilan statistik dan individual. 

Salah satu kekuatan utama metode ini adalah penggunaan Wasserstein distance untuk mengukur jarak distribusi antar kelompok, yang memungkinkan sistem mendeteksi dan menghilangkan bias yang tidak selalu terlihat. 

Misalnya, pada dataset Adult dari UCI yang melibatkan prediksi pendapatan tahunan lebih dari $50.000, artikel ini menunjukkan bahwa meskipun atribut gender dihapus, bias masih dapat muncul dari fitur lain yang terkait dengan gender, seperti usia atau profesi.

Data yang digunakan oleh Qiu dan tim berasal dari berbagai sumber dunia nyata yang relevan, seperti dataset pendapatan (Adult), risiko kredit (Statlog), hingga risiko pinjaman (Fraud) dan investasi (Investor). 

Pada dataset Adult, representasi data yang dihasilkan oleh sistem mereka mampu mengurangi kemungkinan pria memiliki pendapatan tinggi dibandingkan wanita dari 2,39 kali (dengan fitur asli) menjadi 1,95 kali bahkan setelah atribut gender dihapus.

 Lebih lanjut, pendekatan ini berhasil menurunkan jarak distribusi antar kelompok gender pada dataset tersebut, yang diukur menggunakan Earth Mover's Distance (EMD), menjadi hampir nol, yang berarti bahwa bias gender secara efektif terhalangi dalam prediksi.

Selain itu, dalam kasus risiko kredit di dataset Statlog, metode ini meningkatkan kesetaraan dalam penilaian risiko antara kelompok gender. Artikel ini mencatat bahwa meskipun pendekatan Autoencoder biasa dapat mengurangi bias hingga tingkat tertentu, metode adversarial mereka mampu mempertahankan lebih banyak informasi yang relevan untuk prediksi tanpa mengorbankan keadilan. 

Sebagai contoh, hasil dari pendekatan mereka menunjukkan bahwa nilai MSE (Mean Squared Error) saat merekonstruksi fitur asli adalah 0,02, yang relatif rendah, sehingga menjaga akurasi prediksi tetap tinggi sambil memitigasi bias.

Namun, artikel ini juga menunjukkan bahwa ada trade-off yang harus diperhatikan antara keadilan dan kinerja prediksi. Di dataset Fraud, misalnya, performa klasifikasi mengalami penurunan dari segi F1-score karena sistem secara aktif menghilangkan informasi yang terkait dengan atribut terlindungi, yang mungkin memiliki korelasi dengan hasil klasifikasi. 

Meski demikian, metode ini masih lebih unggul dibandingkan pendekatan terdahulu seperti Learning Fair Representations (LFR) yang diusulkan oleh Zemel et al. (2013), baik dari segi keadilan maupun kinerja klasifikasi. Angka-angka ini memberikan bukti bahwa meskipun penghapusan atribut terlindungi seperti gender atau ras tidak cukup untuk menjamin keadilan, representasi data yang adil dapat dicapai melalui pendekatan adversarial tanpa mengorbankan terlalu banyak akurasi prediksi.

***

Pendekatan yang diusulkan oleh Huadong Qiu et al. (2023) dalam artikel ini menawarkan solusi penting untuk memastikan keadilan dalam pembelajaran mesin, terutama ketika algoritma digunakan dalam pengambilan keputusan yang berdampak besar pada masyarakat. 

Dengan memanfaatkan kerangka kerja adversarial, mereka berhasil mengurangi bias dalam prediksi berbasis atribut terlindungi seperti gender dan ras, tanpa mengorbankan terlalu banyak akurasi. Hasil eksperimen pada dataset dunia nyata menunjukkan bahwa metode ini secara signifikan mengurangi jarak distribusi antar kelompok terlindungi, memastikan bahwa prediksi tidak dipengaruhi oleh diskriminasi langsung maupun tidak langsung.

Meskipun ada kompromi antara keadilan dan kinerja, penelitian ini membuktikan bahwa representasi adil dapat dicapai tanpa harus sepenuhnya mengorbankan akurasi prediksi. Dalam dunia yang semakin mengandalkan otomatisasi keputusan, metode ini memiliki potensi besar untuk diterapkan di berbagai sektor, dari keuangan hingga peradilan pidana, guna memastikan kesetaraan dalam sistem berbasis pembelajaran mesin.

***

Referensi

Qiu, H., Feng, R., Hu, R., Yang, X., Lin, S., Tao, Q., & Yang, Y. (2023). Learning fair representations via an adversarial framework. AI Open, 4(1), 91--97. https://doi.org/10.1016/j.aiopen.2023.08.003

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

HALAMAN :
  1. 1
  2. 2
  3. 3
Mohon tunggu...

Lihat Konten Ilmu Alam & Tekno Selengkapnya
Lihat Ilmu Alam & Tekno Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun