Lihat ke Halaman Asli

Diah Priharsari

Dosen dan peneliti transformasi dijital + sosial media

Implementasi Kamera ETLE: Sebuah Pembelajaran Penerapan AI Untuk Kepentingan Publik

Diperbarui: 26 Agustus 2023   04:27

Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.

 Public Governance no 36 2019, oleh Berryhill dkk, judul: "Hello world, Artificial intelligence and and its use in the public sector", halaman 90

Berita tentang sistem ETLE yang ternyata membuat muncul beberapa laporan tentang salah identifikasi pelanggaran sudah muncul beberapa kali. Misalnya berita yang ditampilkan Kompas tanggal 13 bulan November 2022. Pada kasus tersebut, disebutkan sebuah surat tilang tiba pada seseorang, misal A yang ternyata pada saat kejadian, A sedang berada di rumah. Diduga, ETLE menangkap nomor mobil kendaraan yang menggunakan plat palsu yang kebetulan plat tersebut adalah milik A.

Peluang terjadinya salah tilang tidak hanya itu. Hal yang lain yang mungkin terjadi jika mobil digunakan oleh orang lain, maka pemilik nomor yang akan mendapatkan tilang. Barangkali sebagian dari kita akan muncul pertanyaan, jika seseorang melanggar peraturan rambu lalu lintas, maka yang mendapatkan denda siapa? Sayangnya, sesuai dengan judul naskah ini, saya sama sekali tidak ingin membahas tentang siapa yang seharusnya diberikan tilang. Padahal mungkin ini akan seru juga dibahas. Alasannya banyak, yang paling utama adalah karena saya tidak memiliki pengetahuan sama sekali di bidang terkait ini. Kalau saya ikut-ikutan, bisa-bisa terdengar seperti tong kosong nyaring bunyinya.

Baik, yang akan saya bicarakan kali ini adalah ETLE sebagai salah satu tools berbasis AI untuk kepentingan masyarakat. Cara kerja ETLE Sederhananya adalah dengan membaca perilaku pengguna kendaraan lalu mencatat nomor kendaraan tersebut jika perilaku pengguna kendaraan dianggap melanggar peraturan lalu lintas. Dengan ETLE, maka diduga tidak diperlukan lagi banyak petugas polisi patroli di jalan. Polisi dapat melakukan tugas lain yang lebih penting dan membutuhkan keahlian kognitif lebih.

Tidak perlu lagi dibahas keuntungan AI. Sudah banyak tulisan-tulisan yang membahas keuntungan AI dan pentingnya AI, tidak hanya di sektor swasta tetapi juga di area publik. Hal itupun juga ditunjukkan dengan kenyataan hasil survei yang dilakukan oleh Oxford Insight pada laporannya Government AI Readiness Index 2021 (https://www.oxfordinsights.com/government-ai-readiness-index2021), 40% dari 160 negara telah mempublikasikan atau membuat strategi AI di level nasional, yang menandakan besarnya minat pemerintah untuk mengadopsi AI dan menjadikan bagian dari rencana strategis pemerintahan.

Kembali lagi ke kasus ETLE yang digunakan oleh kepolisian di negara kita. Berbeda dengan sektor swasta yang memanfaatkan AI, kerugian yang terjadi akan menjadi otomatis kerugian perusahaan yang biasanya salah satu indikatornya adalah neraca keuangan. Hal berbeda terjadi pada sektor pelayanan publik. Dampak dari pelayanan publik yang tidak baik adalah terkikisnya kepercayaan publik. Kepercayaan pada pemerintahan bukanlah hal yang mudah untuk ditingkatkan. Laporan OECD tahun 2018 menunjukkan adanya tren kepercayaan yang menurun. Beruntungnya, Indonesia (di kala survei diambil, tahun 2016), ternyata justru meningkat mendekati 30%.

 

Kesalahan tilang yang terjadi karena ETLE bisa jadi dapat menurunkan kepercayaan masyarakat kepada kepolisian jika tidak ditangani dengan tepat. Buktinya apa? Misal, cepatnya beredar berita salah tilang. Untung hanya satu, dua, tiga, kalau sampai 100 orang? Tidak hanya nanti soal ETLE saja, tetapi juga bisa merembet ke maraknya penggunaan plat palsu yang tidak terkontrol, besaran anggaran ETLE, dan lain-lain yang bisa jadi di luar kendali.

Sehingga, bagi saya, ada satu pelajaran yang penting sekali saat lembaga publik akan menggunakan AI, yaitu mempertimbangkan aspek kepercayaan, keadilan, dan kebertanggungjawaban dalam penggunaan AI. Hal ini sebetulnya sudah banyak didiskusikan di forum-forum ahli teknologi yang berkaitan dengan transformasi dijital, namun barangkali masih sering terlewatkan dalam diskusi di negara kita.

Dengan mempertimbangkan aspek kepercayaan, keadilan, dan kebertanggungjawaban maka lembaga publik saat mendesain dan mengimplementasikan AI telah mengidentifikasi pro dan kontra dengan lengkap, mitigasi resiko dan bias, serta memastikan peranan manusia yang tepat pada implementasi AI. Bagian penting dari ini adalah memastikan secara konstan berfokus pada pengguna yang terdampak implementasi AI secara menyeluruh tidak hanya pada saat desain tetapi juga implementasi.

Hal tersebut berarti bahwa langkah pengawasan tidak hanya dilakukan saat desain, tetapi juga saat implementasi. Lembaga publik yang akan menerapkan AI harus mempersiapkan kerangka kerja teknis yang legal juga beretika untuk pengawasan saat desain dan juga implementasi. Sebagai contoh, pemerintahan Kanada membentuk unit yang disebut Directive on Automated Decision-Making (https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592) yang memastikan standar pendekatan yang terstandarisasi terhadap manajemen resiko AI di seluruh sektor publik, baik dalam tahap desain maupun implementasi. Dalam rangka membantu unit tersebut, assessment dampak algoritma dibuat, untuk memastikan dampak algoritma pada warga negara.

Tidak hanya pada tahap desain, pengawasan pada saat implementasi juga harus dilakukan untuk memastikan bahwa resiko telah diidentifikasi, ada rencana mitigasi, dan konsekuensi lainnya yang tidak diharapkan telah diidentifikasi.

Halaman Selanjutnya


BERI NILAI

Bagaimana reaksi Anda tentang artikel ini?

BERI KOMENTAR

Kirim

Konten Terkait


Video Pilihan

Terpopuler

Nilai Tertinggi

Feature Article

Terbaru

Headline