Sebagian besar perubahan yang beroperasi di dunia dihasilkan oleh algoritma. Sedemikian rupa sehingga di masa depan, mereka bisa menarik tali politik.
Cari lowongan pekerjaan. Ajukan keluhan ke layanan pelanggan. Tanyakan tentang pinjaman atau produk perbankan lainnya. Pesan tiket pesa.wat atau hotel. Berita, informasi, dan iklan yang kita lihat ketika kita memasuki jejaring sosial kita...Â
Algoritma adalah akar dari tugas sehari-hari yang tak ada habisnya dan di lebih banyak industri daripada yang kita bayangkan.
Mekanisme diam inilah yang, semakin banyak, menggerakkan dunia tanpa kita sadari. Dan yang paling mencolok, mereka belajar dari data yang kita berikan kepada mereka agar lebih efisien.Â
Mereka beradaptasi dengan manusia -- mereka yang dikodekan sebagai "pengguna" --mencoba menawarkan pengalaman yang semakin personal, cepat dan memuaskan sehingga upayanya minimal.
Tentakelnya mencapai aplikasi kencan, di mana ia bahkan dapat memutuskan pilihan pasangan kita dengan menghadirkan serangkaian kandidat yang sangat spesifik. Berdasarkan, seharusnya, pada preferensi kami.Â
Perampokannya ke dalam kehidupan digital sehari-hari sedemikian rupa sehingga kita bahkan percaya bahwa dia dapat mengambil keputusan politik bagi kita ...
Algoritma mencoba membuat hidup kita lebih mudah, tetapi pada kenyataannya merekalah yang memutuskan untuk kita. Algoritma dapat membuat kita tertawan dalam gelembung informasi.
Apa itu bias algoritmik?
Algoritma dapat membuat hidup kita lebih mudah. Jika kita pecinta alam dan konservasionis, misalnya, sangat mungkin bahwa di jejaring sosial kita, kita akan menemukan semakin banyak informasi terkait dengan topik ini. Namun, hal-hal berubah ketika kekhawatiran kita tidak benar-benar sehat.
Mari kita ingat kasus mengerikan Molly Russell. Remaja ini sedang mencari topik yang berkaitan dengan bunuh diri. Ada saatnya ketika semua jejaring sosialnya menunjukkan kepadanya dan menawarinya konten yang terkait dengan tema ini.Â
Hampir tanpa disadari, kita dapat tetap tertawan dalam gelembung informasi di mana tren lain dan oksigen dari konten lain tidak lagi disaring.
Bias algoritmik mengacu pada rasa kontrol kita yang salah atas informasi yang kita terima dan keputusan yang kita buat.Â
Karena ada kode mengganggu yang meresap ke dalam kehidupan kita sehari-hari, terus-menerus menawarkan kita data yang hampir tidak pernah bias. Tapi jangan lupa, hampir selalu ada prederensi di baliknya ...
Kamu tidak memutuskan, mereka memutuskan untuk kamu
Ada fenomena yang semakin sering diamati dalam standardisasi kecerdasan buatan. AI memberi kita rasa kontrol dan self-efficacy yang salah.Â
Perasaan ini akan meningkat lebih banyak ketika penggunaan ChatGPT dinormalisasi dan itu akan membantu kita dalam tesis, tugas-tugas di universitas, dan dalam tugas sehari-hari yang tak ada habisnya.
Kita akan merasa lebih efisien, tetapi pada kenyataannya, chatbot inilah yang akan melakukan tugas kita. Tidak harus negatif, memang, tetapi itu meningkatkan bias algoritmik yang disebutkan di atas. Artinya, persepsi bahwa kita memutuskan dan bertindak tanpa campur tangan, padahal ini tidak terjadi ...
Cathy O'Neil adalah seorang matematikawan menulis buku yang sangat populer, Weapons of Mathematical Destruction (2016). Dalam artikel ini, ia menggambarkan algoritma sebagai "senjata pemusnah massal."Â
Pertama-tama, nilai-nilai komputasi ini tidak bebas dari bias moral dan budaya, apalagi kepentingan yang mendukungnya.
Dalam buku itu, dia menyebutkan kasus seorang guru yang dipecat setelah evaluasi negatif yang dilakukan oleh algoritma padanya.Â
Dalam makalah itu, data dari pesan pribadi hingga laporan medis dianalisis. Hal yang sama berlaku ketika menilai penugasan hipotek atau bantuan. Beberapa kelompok etnis, misalnya, akan selalu dirugikan.
Namun, sebagian besar perusahaan dan organisasi memvalidasi pemindaian cepat ini. Bias algoritma mengarahkan mereka untuk menyimpulkan bahwa apa yang dianalisis algoritma akan selalu valid.Â
Bahkan jika itu tidak adil dan seringkali data ini bahkan tidak dikumpulkan secara pribadi.
Algocracy, algoritma untuk melayani politik
Sering dikatakan bahwa politisi jauh dari masalah nyata rakyat. Kita mempertanyakan ide-ide mereka karena mereka tidak memenuhi kebutuhan warga negara.Â
Kritik lain adalah pengeluarannya yang berlebihan untuk penasihat, salah urusnya, dan bahkan kesalahannya dalam hal pengambilan keputusan dan bahkan membuat undang-undang.
Baru-baru ini, sebuah survei yang diterbitkan oleh perusahaan konsultan Deloitte mengungkapkan sesuatu yang mencolok.Â
Mungkin ada masa depan di mana algoritma dan kecerdasan buatan mengambil alih sebagian besar tugas politisi.Â
Itu akan cukup untuk menganalisis data yang dikumpulkan perusahaan teknologi besar tentang kita dengan ponsel kita. Dengan cara ini, mereka akan mengetahui kebutuhan kita untuk memberikan respons sosial yang lebih tepat.
Demikian pula, kecerdasan buatan dapat dilatih sehingga manajemen politik apa pun tidak curang. Kapasitas analitisnya akan menggantikan banyak penasihat dan menghemat jumlah pekerjaan yang tak terbatas untuk badan publik.Â
Algokrasi, dipahami sebagai kekuatan algoritma untuk menggantikan pekerjaan politisi, mungkin tampak paling dystopian bagi kita, tetapi itu adalah kemungkinan nyata.
Berikan saja detailnya. Universitas Utrecht melakukan penelitian di mana ia menunjukkan bahwa membiarkan algoritma menggantikan seluruh aspek birokrasi organisasi pemerintah dapat bermanfaat.Â
Alasannya? Warga negara cenderung menempatkan kepercayaan yang lebih besar pada pengelolaan mesin daripada pada politisi (bias lain yang jelas).
Bias algoritmik akan tetap ada, dan itu semakin kuat. Kita akan terus berpikir bahwa banyak pembelian yang kami lakukan, orang-orang yang kita perhatikan di media sosial, atau ide-ide yang memberi kita kebenaran adalah produk dari keinginan kita. Kita akan terus menganggap diri kita sebagai roh bebas, padahal kenyataannya kita akan diam-diam lebih terkondisi.
Kita melihatnya pada orang muda. Mereka semakin tidak puas karena hidup di dunia digital berdasarkan perbandingan sosial.Â
Penting untuk dipahami bahwa algoritma bukanlah entitas yang muncul dengan sendirinya, ada perusahaan besar di belakang, mereka yang memprogramnya. Dan pemrograman semacam itu selalu memiliki tujuan.
Jika kita bergerak menuju masa depan di mana orang dan kecerdasan buatan bekerja sama, perlu bagi mereka yang melatih dan memprogram AI untuk transparan dan mulai dari nilai-nilai yang lebih etis, adil, moral dan sehat.Â
Kita perlu mengatur mekanisme ini, yang semakin mengubah perilaku pengguna. Yaitu, dari kita masing-masing.
Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H