Dengan memanfaatkan kerangka kerja adversarial, mereka berhasil mengurangi bias dalam prediksi berbasis atribut terlindungi seperti gender dan ras, tanpa mengorbankan terlalu banyak akurasi. Hasil eksperimen pada dataset dunia nyata menunjukkan bahwa metode ini secara signifikan mengurangi jarak distribusi antar kelompok terlindungi, memastikan bahwa prediksi tidak dipengaruhi oleh diskriminasi langsung maupun tidak langsung.
Meskipun ada kompromi antara keadilan dan kinerja, penelitian ini membuktikan bahwa representasi adil dapat dicapai tanpa harus sepenuhnya mengorbankan akurasi prediksi. Dalam dunia yang semakin mengandalkan otomatisasi keputusan, metode ini memiliki potensi besar untuk diterapkan di berbagai sektor, dari keuangan hingga peradilan pidana, guna memastikan kesetaraan dalam sistem berbasis pembelajaran mesin.
***
Referensi
Qiu, H., Feng, R., Hu, R., Yang, X., Lin, S., Tao, Q., & Yang, Y. (2023). Learning fair representations via an adversarial framework. AI Open, 4(1), 91--97. https://doi.org/10.1016/j.aiopen.2023.08.003
Follow Instagram @kompasianacom juga Tiktok @kompasiana biar nggak ketinggalan event seru komunitas dan tips dapat cuan dari Kompasiana. Baca juga cerita inspiratif langsung dari smartphone kamu dengan bergabung di WhatsApp Channel Kompasiana di SINI