Dengan memanfaatkan kerangka kerja adversarial, mereka berhasil mengurangi bias dalam prediksi berbasis atribut terlindungi seperti gender dan ras, tanpa mengorbankan terlalu banyak akurasi. Hasil eksperimen pada dataset dunia nyata menunjukkan bahwa metode ini secara signifikan mengurangi jarak distribusi antar kelompok terlindungi, memastikan bahwa prediksi tidak dipengaruhi oleh diskriminasi langsung maupun tidak langsung.
Meskipun ada kompromi antara keadilan dan kinerja, penelitian ini membuktikan bahwa representasi adil dapat dicapai tanpa harus sepenuhnya mengorbankan akurasi prediksi. Dalam dunia yang semakin mengandalkan otomatisasi keputusan, metode ini memiliki potensi besar untuk diterapkan di berbagai sektor, dari keuangan hingga peradilan pidana, guna memastikan kesetaraan dalam sistem berbasis pembelajaran mesin.
***
Referensi
Qiu, H., Feng, R., Hu, R., Yang, X., Lin, S., Tao, Q., & Yang, Y. (2023). Learning fair representations via an adversarial framework. AI Open, 4(1), 91--97. https://doi.org/10.1016/j.aiopen.2023.08.003
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H