Masalah AI Black Box Seputar Keandalan
Sampai saat ini, banyak orang yang belum mendengar tentang AI (kecerdasan buatan). Namun saat ini teknologi telah menyebar begitu cepat sehingga menjadi bagian integral dan penting dalam kehidupan kita, melibatkan data dalam jumlah besar dan mendukung pengambilan keputusan manusia.
Saat ini, AI terutama digunakan untuk menentukan dan memprediksi berbagai hal, namun di masa depan, AI kemungkinan akan mampu mendukung pengambilan keputusan yang lebih maju, seperti menemukan dan menyarankan tindakan selanjutnya yang paling tepat bagi manusia.
Namun, untuk mencapai titik ini bergantung pada beberapa masalah penting yang harus diselesaikan yakni masalah utama seputar keandalan AI. AI saat ini menggunakan sejumlah besar data untuk mengambil keputusan, namun AI tidak mampu memberikan bukti yang mendukung alasannya.
Misalnya, bagaimana Anda bisa mempercayai AI jika Anda tidak bisa menjelaskan mengapa AI mengambil keputusan spesifik dalam tinjauan kredit bank? Inilah yang dikenal sebagai masalah “kotak hitam” yang melibatkan AI.
Jika kita ingin menggunakan AI dengan percaya diri dalam berbagai aspek masyarakat di masa depan, kita harus menghilangkan elemen kotak hitam dan meningkatkan akuntabilitas AI. Ada juga masalah etika yang perlu dipertimbangkan, yang melibatkan bias dalam data yang dipelajari dan kemudian merugikan jawaban yang diberikan oleh AI.
Selain itu, ada masalah kualitas dalam AI. AI mempelajari data, menghasilkan model keputusan dan identifikasi. Namun jika sebaran data yang digunakan di lapangan berbeda dengan yang digunakan pada saat pembelajaran, maka dapat dimaklumi bahwa AI tidak dapat mengambil keputusan yang tepat. Hal ini dapat mengakibatkan keakuratan AI menurun antara waktu pembelajaran hingga saat AI dioperasikan.
Contohnya melibatkan penilaian risiko kredit pada lembaga keuangan. Jika kondisi ekonomi berubah secara signifikan setelah proses pembelajaran, atau jika terjadi perubahan nilai tukar, harga, atau peraturan, model penilaian kredit menjadi usang.
Dua Perspektif Baru untuk Memanfaatkan Potensi AI
Laboratorium Kecerdasan Buatan Fujitsu berupaya mengatasi tantangan ini dengan melakukan penelitian di dua bidang utama. Yang pertama melibatkan penelitian dan pengembangan untuk menyediakan "AI Tepercaya" dengan menghilangkan risiko dan hambatan ketika AI diterapkan di masyarakat. Kedua, penelitian dan pengembangan mengenai “AI yang menciptakan nilai baru”, dengan tujuan mencapai transformasi sosial dan bisnis melalui AI.
AI Tepercaya
"AI Tepercaya" berkisar pada penyelesaian masalah kotak hitam dan mewujudkan AI yang benar-benar dapat bekerja sama dengan manusia. Secara khusus, ada tiga jenis utama yang terlibat: "AI yang dapat dijelaskan", "Kualitas AI", dan "etika AI".
Dalam AI yang dapat dijelaskan, kami melakukan penelitian dan pengembangan pada teknologi AI untuk menjelaskan alasan di balik hasil penilaian yang diberikan oleh AI. Secara khusus, Fujitsu tengah mengembangkan dua teknologi pembelajaran mesin: "Deep Tensor" yang mempelajari hubungan antara manusia dan objek (struktur grafik), dan "Wide Learning" yang secara komprehensif mempelajari kombinasi besar item data dan menyajikan hipotesis.