Lihat ke Halaman Asli

Mohammad AmirinNurul

Mahasiswa Universitas Airlangga

Prediksi Perkembangan Artificial Intelligence pada 2030: Transformasi Lintas Dimensi

Diperbarui: 6 Juli 2022   10:55

Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.

kemdikbud.go.id

Pada tahun 2030, AI kemungkinan tidak akan lagi diadopsi dengan skenario dan aplikasi sederhana. Ini akan diharapkan untuk mendeteksi penyakit yang mengancam jiwa pada tahap yang baru lahir, memprediksi kondisi cuaca di area yang luas selama beberapa bulan dan menjadi kolaborator digital untuk umat manusia. 

Ini hanya beberapa kemungkinan dampak potensial AI pada kehidupan dan pekerjaan di tahun-tahun mendatang. Laju perubahan belum pernah terjadi sebelumnya di sektor ini, dan berjanji akan terus berlanjut di tahun-tahun mendatang.

Dengan pembelajaran dan adopsi yang cepat, AI bukan lagi teknologi bola kristal tetapi sesuatu yang sekarang berinteraksi dengan manusia di hampir setiap bidang kehidupan. 

Faktanya, transformasi yang dipimpin oleh AI telah begitu meluas sehingga sangat memengaruhi pengalaman pengguna dan bagaimana manusia berinteraksi dengan merek dan teknologi. Dengan cara yang sedang tren, AI akan segera menjadi bagian tak terbantahkan dari kehidupan manusia dan masyarakat.

Adopsi yang meluas ini dan berbagai kasus penggunaan baru akan datang dari sifat AI yang berkembang pesat. Itu sudah mencapai komputasi yang lebih cepat, akurasi yang lebih tinggi dan komputasi yang lebih rendah dan biaya infrastruktur. 

Saat ini, AI berkembang di ketiga dimensi komputasi, data, dan algoritma yang menetapkan konteksnya di semua bidang kehidupan dan pekerjaan pada tahun 2030. Inilah arah yang saya lihat AI bergerak dalam kategori-kategori ini.

Komputasi

Dari semua faktor utama yang mendorong evolusi AI, komputasi adalah yang paling mudah untuk diukur. Dalam dekade mendatang, komputasi akan menyaksikan transformasi besar. 

Unit pemrosesan grafis (GPU) membuka jalan untuk Application-Specific Integrated Circuits (ASIC) dan Field Programmable Gate Arrays (FPGA). Ini karena ASIC dan FPGA menampilkan kinerja yang lebih baik daripada GPU.

ASIC akan menggunakan pemrosesan multicore untuk menjalankan fungsi AI yang kompleks, sehingga mengkonsumsi lebih sedikit daya. Faktanya, ASIC menjadi begitu luas sehingga Google telah berinvestasi dalam membangun unit pemrosesan tensor, ASIC yang dikembangkan untuk cloud.

Halaman Selanjutnya


BERI NILAI

Bagaimana reaksi Anda tentang artikel ini?

BERI KOMENTAR

Kirim

Konten Terkait


Video Pilihan

Terpopuler

Nilai Tertinggi

Feature Article

Terbaru

Headline