Mohon tunggu...
Mohammad Sihabudin Al Qurtubi
Mohammad Sihabudin Al Qurtubi Mohon Tunggu... Mahasiswa - Seorang mahasiswa di Universitas Airlangga Surabaya dengan jurusan Teknologi Sains Data

Seorang pecinta Data sains dan Kecerdasan Buatan

Selanjutnya

Tutup

Ilmu Alam & Tekno Pilihan

Kecerdasan Buatan dalam Dunia Hukum

1 Juni 2022   15:23 Diperbarui: 1 Juni 2022   15:31 2217
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Di era industri 4.0 kecepatan transformasi teknologi terjadi sangat cepat yang mengakibatkan mengubah cara berinteraksi masyarakat sekarang di semua aspek kehidupan seperti ekonomi, industri, pendidikan, bahkan hukum. Era tersebut juga merangsang pengaplikasian kecerdasan buatan di berbagai bidang tak terkecuali bidang hukum. Menurut KBBI kecerdasan buatan adalah program komputer dalam meniru kecerdasan manusia, seperti mengambil keputusan, menyediakan dasar penalaran, dan karakteristik manusia lainnya. 

Dalam dunia hukum kemajuan teknologi tidak hanya memaksa pemerintah untuk mengubah pendekatan mereka terhadap hukum. Para profesional hukum dan aparat penegak hukum harus segera beradaptasi dengan adanya berbagai inovasi dan kreasi yang memerikan akses masyarakat terhadap segala jenis informasi di bidang hukum. Khususnya dalam sistem peradilan yang mengembangkan kecerdasan buatan di dalamnya. 

Perkembangan kecerdasan buatan dalam dunia hukum terus berkembang secara pesat di mana kecerdasan buatan tersebut bisa memberikan keputusan terhadap suatu permasalahan atau menjadi hakim dalam peradilan. Keputusan tersebut didapatkan dengan melatih kecerdasan buatan berbasis kasus-kasus peradilan yang pernah terjadi di seluruh dunia. Hal tersebut tentu menimbulkan polemik di kalangan profesi hukum. 

Kecanggihan teknis sistem kecerdasan buatan baru yang digunakan dalam proses pengambilan keputusan dalam pengaturan peradilan pidana sering kali mengarah pada efek 'kotak hitam'. (Pasquel, 2015). 

Fase perantara dalam proses mencapai keputusan secara definisi tersembunyi dari pengawasan manusia karena kompleksitas teknis yang terlibat. Misalnya, beberapa area pembelajaran mesin terapan menunjukkan bagaimana metode baru pembelajaran tanpa pengawasan atau pembelajaran aktif beroperasi dengan cara menghindari campur tangan manusia. 

Dalam pendekatan aktif pembelajaran mesin yang digunakan untuk pemrosesan bahasa alami, misalnya, algoritma pembelajaran mengakses kumpulan sampel besar yang tidak berlabel dan dalam serangkaian iterasi, algoritma memilih beberapa sampel yang tidak berlabel dan meminta manusia untuk anotasi label yang sesuai. 

Pendekatan ini disebut aktif karena algoritma memutuskan sampel apa yang harus dianotasi oleh manusia berdasarkan hipotesisnya saat ini. Ide inti dari pembelajaran mesin aktif adalah untuk menghilangkan manusia dari persamaan. Terlebih lagi, jaringan saraf tiruan (selanjutnya disebut 'ANN') belajar melakukan tugas dengan mempertimbangkan contoh, umumnya tanpa diprogram dengan aturan tugas khusus. 

Dengan demikian, jaringan saraf tiruan bisa sangat berguna di berbagai bidang, seperti visi komputer, pemrosesan bahasa alami, atau dalam keamanan siber untuk mengidentifikasi dan membedakan antara aktivitas yang sah dan yang berbahaya. 

Mereka tidak menuntut sampel berlabel, misalnya, untuk mengenali kucing dalam gambar atau pejalan kaki di lalu lintas, tetapi dapat menghasilkan pengetahuan tentang seperti apa kucing itu sendiri. Operasi dalam pendekatan pembelajaran mesin tidak transparan bahkan untuk peneliti yang membangun sistem dan sementara ini mungkin tidak bermasalah di banyak bidang pembelajaran mesin terapan, seperti yang ditunjukkan oleh contoh-contoh di atas, 

sistem AI harus transparan ketika digunakan dalam pengaturan peradilan, di mana penjelasan keputusan dan transparansi penalarannya signifikan - bahkan nilai peradaban. Proses pengambilan keputusan yang tidak memiliki transparansi dan pemahaman tidak dianggap sah dan tidak otokratis. 

Karena sifat tidak transparan dari sistem kecerdasan buatan ini, alat-alat baru yang digunakan dalam pengaturan peradilan pidana dengan demikian dapat berbeda dengan kebebasan mendasar yang berlaku dalam peradilan. 

Sebagai contoh di Amerika Serikat peradilan juga menggunakan algoritma kecerdasan buatan untuk menghitung kemungkinan seseorang menjadi pelanggar berulang dan menyarankan jenis hukuman dan pengawasan apa yang harus dia terima. Saat menilai penggunaan algoritma ini, 

mantan Jaksa Agung AS Eric Holder mengatakan bahwa penelitian semakin memperhatikan bias algoritma dalam sistem kecerdasan buatan terutama yang berkaitan dengan ras. Bagi Luiz Fux, "mengingat bahwa bias menampilkan diri mereka sebagai karakteristik intrinsik dari pemikiran manusia, 

dapat disimpulkan bahwa algoritma yang diciptakan oleh manusia yang bias mungkin akan menderita 'kejahatan' yang sama, bukan dengan sengaja, tetapi karena informasi yang diberikan kepada sistem. Dengan cara ini, apa yang disebut bias algoritmik muncul ketika mesin berperilaku dengan cara yang mencerminkan nilai-nilai kemanusiaan yang terlibat dalam pemrograman, sehingga membelokkan hasilnya. (Fux, 2019). 

Dari kasus tersebut suatu algoritma kecerdasan buatan memiliki bias yang sangat mempengaruhi hasil peradilan. Bias tersebut bisa saja terjadi jika data yang dominan diambil berasal dari ras tertentu ataupun ketika pelanggaran kasus hukum terjadi pada daerah tertentu saja maka terjadi diskriminasi terhadap ras tertentu dan daerah tertentu tersebut. 

Menurut Agung Pramono "kecerdasan buatan dalam sistem peradilan fungsinya masih sebatas membantu hakim". (Pramono, 2020). Pada dasarnya tidak ada dua atau lebih kasus hukum yang serupa. Keputusan hukum merupakan pilihan humanistik yang menyeimbangkan antara kasus sulit dengan fakta yang tidak jelas atau aturan yang tidak jelas. 

Memilih aturan yang tepat dengan mempertimbangkan konsekuensi sosial dan efek jangka panjang adalah sesuatu hal yang sulit dilakukan oleh algoritma kecerdasan buatan. 


Referensi 

[1] A. Zavrnik, "Criminal justice, artificial intelligence systems, and human rights," ERA Forum, vol. 20, no. 4, pp. 567--583, 2020, doi: 10.1007/s12027-020-00602-0. 

[2] A. Pramono, "Mungkinkah Hakim Manusia Digantikan oleh Kecerdasan Buatan?," HUKUMONLINE.COM, 2020. https://www.hukumonline.com/klinik/a/mungkinkahhakim-manusia-digantikan-oleh-kecerdasan-buatan--lt5e82cd8755927 (accessed Mar. 04, 2022). 

[3] F. M. De Sanctis, "Artificial Intelligence and Innovation in Brazilian Justice," Int. Ann. Criminol., vol. 59, no. 1, pp. 1--10, 2021, doi: 10.1017/cri.2021.4.

Baca konten-konten menarik Kompasiana langsung dari smartphone kamu. Follow channel WhatsApp Kompasiana sekarang di sini: https://whatsapp.com/channel/0029VaYjYaL4Spk7WflFYJ2H

Mohon tunggu...

Lihat Konten Ilmu Alam & Tekno Selengkapnya
Lihat Ilmu Alam & Tekno Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun