Mari kita ingat kasus mengerikan Molly Russell. Remaja ini sedang mencari topik yang berkaitan dengan bunuh diri. Ada saatnya ketika semua jejaring sosialnya menunjukkan kepadanya dan menawarinya konten yang terkait dengan tema ini.Â
Hampir tanpa disadari, kita dapat tetap tertawan dalam gelembung informasi di mana tren lain dan oksigen dari konten lain tidak lagi disaring.
Bias algoritmik mengacu pada rasa kontrol kita yang salah atas informasi yang kita terima dan keputusan yang kita buat.Â
Karena ada kode mengganggu yang meresap ke dalam kehidupan kita sehari-hari, terus-menerus menawarkan kita data yang hampir tidak pernah bias. Tapi jangan lupa, hampir selalu ada prederensi di baliknya ...
Kamu tidak memutuskan, mereka memutuskan untuk kamu
Ada fenomena yang semakin sering diamati dalam standardisasi kecerdasan buatan. AI memberi kita rasa kontrol dan self-efficacy yang salah.Â
Perasaan ini akan meningkat lebih banyak ketika penggunaan ChatGPT dinormalisasi dan itu akan membantu kita dalam tesis, tugas-tugas di universitas, dan dalam tugas sehari-hari yang tak ada habisnya.
Kita akan merasa lebih efisien, tetapi pada kenyataannya, chatbot inilah yang akan melakukan tugas kita. Tidak harus negatif, memang, tetapi itu meningkatkan bias algoritmik yang disebutkan di atas. Artinya, persepsi bahwa kita memutuskan dan bertindak tanpa campur tangan, padahal ini tidak terjadi ...
Cathy O'Neil adalah seorang matematikawan menulis buku yang sangat populer, Weapons of Mathematical Destruction (2016). Dalam artikel ini, ia menggambarkan algoritma sebagai "senjata pemusnah massal."Â
Pertama-tama, nilai-nilai komputasi ini tidak bebas dari bias moral dan budaya, apalagi kepentingan yang mendukungnya.
Dalam buku itu, dia menyebutkan kasus seorang guru yang dipecat setelah evaluasi negatif yang dilakukan oleh algoritma padanya.Â
Dalam makalah itu, data dari pesan pribadi hingga laporan medis dianalisis. Hal yang sama berlaku ketika menilai penugasan hipotek atau bantuan. Beberapa kelompok etnis, misalnya, akan selalu dirugikan.