FPGA akan melangkah lebih jauh, karena akan memungkinkan desainer untuk mengkonfigurasi ulang blok desainer. Investasi AWS dalam FPGA melalui AWS Inferential merupakan indikasi bahwa FPGA benar-benar mengubah komponen komputasi AI dalam dekade mendatang.Â
Area transformasi lainnya adalah IPU (unit pemrosesan cerdas), yang berfokus pada paralelisasi masif model dimensi tinggi yang kompleks dan mendukung kepadatan komputasi yang tinggi. Ini semua adalah tanda dari transformasi mendalam yang sedang berlangsung dalam dimensi komputasi AI, sekarang dan dalam dekade mendatang.
Data
Komponen data AI akan berubah dalam hal berbagai sumber, tingkat detail, dan mode pemrosesan. Lebih banyak sumber dari IoT, lebih detail ketika data direkam setiap milidetik dan asupan data multi-modal dengan teknik DL berarti interaksi yang lebih kompleks akan diproses di masa mendatang.Â
Data merupakan bagian integral dari evolusi AI karena ilmuwan data perlu mengakses kumpulan data dengan biaya yang efektif dan mengajarkan analisis mereka ke model pembelajaran mendalam (DL).
Sebuah revolusi sedang terjadi dalam hal bagaimana AI menggunakan data untuk membuat prediksi yang akurat. Sensor / perangkat IoT menghasilkan debu digital. Log dari sistem dampak tingkat milidetik menghasilkan data pada rentang hidup waktu kuantum.Â
Pengguna menghasilkan data dari titik kontak tradisional ke sistem yang menghasilkan zettabytes data dalam proses fisik dasar (misalnya reaksi kimia), yang bersama-sama diatur untuk mengubah cara AI menyimpulkan data. Menyimpulkan data dari sumber yang tidak jelas menjadi hal yang normal baru.
Tanda-tanda ini menunjukkan revolusi dalam dimensi data AI, dan revolusi ini akan tak terbendung dalam dekade mendatang.
Algoritma
Dengan kemajuan lebih lanjut dalam jaringan saraf tiruan (JST), cara AI berpikir tentang suatu situasi tidak akan terlalu jauh dari bagaimana manusia memandang situasi yang sama. Ini penting karena kita kemudian dapat membuat model DL, yang membuat analisis yang tepat bahkan dengan data yang terbatas.
Setiap hari algoritma baru sedang dikembangkan yang berfokus pada penanganan data yang kompleks, kecepatan, komputasi paralel, biaya, akurasi dan presisi. Misalnya, pembelajaran beberapa bidikan difokuskan pada pembelajaran lebih banyak dan lebih dalam dengan ukuran set data berlabel yang lebih kecil.Â