Perangkat untuk Pendidikan Online
- Contoh: Selama pandemi COVID-19, beberapa organisasi atau perusahaan, seperti Google dan Microsoft, menyediakan laptop, tablet, atau smartphone untuk siswa dari keluarga kurang mampu agar mereka bisa mengikuti pembelajaran daring.
Pelatihan Teknologi untuk Lansia dan Kaum Rentan
- Contoh: Di beberapa negara, pemerintah atau komunitas lokal mengadakan pelatihan teknologi untuk lansia agar mereka bisa menggunakan layanan digital, seperti e-banking, telemedicine, dan aplikasi sosial.
Contoh Memberdayakan Individu dari Berbagai Latar Belakang:
Platform Digital Multibahasa
- Contoh: Wikipedia memungkinkan orang untuk membaca dan menyumbangkan konten dalam berbagai bahasa, yang memberdayakan masyarakat lokal untuk mengakses informasi dalam bahasa mereka sendiri.
Startup Digital untuk UMKM Lokal
- Contoh: Tokopedia atau Bukalapak di Indonesia membantu pelaku usaha mikro dari latar belakang ekonomi lemah untuk menjual produk mereka secara daring dan memperluas pasar mereka.
Program Coding untuk Anak Muda Tidak Mampu
- Contoh: Gerakan seperti Girls Who Code atau Digital Talent Scholarship memberikan pelatihan coding bagi perempuan dan anak muda kurang mampu untuk meningkatkan keterampilan mereka di era digital.
Aplikasi untuk Penyandang Disabilitas
- Contoh: Aplikasi "Be My Eyes" yang membantu tunanetra mendapatkan bantuan visual dari sukarelawan untuk menjalankan aktivitas sehari-hari.
Dengan langkah-langkah ini, inklusivitas dalam dunia digital tidak hanya mengurangi kesenjangan, tetapi juga meningkatkan partisipasi semua individu, sehingga menciptakan lingkungan yang lebih adil dan setara.Â
Contoh Bias Teknologi Berbasis Data Tidak Inklusif
Bias teknologi berbasis data terjadi ketika sistem atau algoritma digital menghasilkan keputusan yang tidak adil atau diskriminatif karena bias yang tertanam dalam data pelatihannya, cara algoritma dirancang, atau dalam proses pengambilan keputusan otomatis. Berikut adalah contohnya:
1. Bias Gender dalam Rekrutmen Otomatis
- Contoh: Algoritma rekrutmen Amazon (2014-2017) diketahui memiliki bias gender. Sistem ini cenderung memberikan preferensi kepada kandidat laki-laki karena data pelatihannya didasarkan pada rekam jejak perekrutan sebelumnya, di mana sebagian besar pelamar yang dipekerjakan adalah laki-laki. Hal ini mengabaikan kompetensi kandidat perempuan dengan latar belakang yang sama.