Pernahkah Anda bertanya-tanya mengapa ChatGPT begitu cerdas dan canggih sehingga digunakan oleh lebih dari 100 juta pengguna setiap minggunya? Jawabannya terletak pada Azure, platform komputasi awan milik Microsoft yang menjadi tulang punggung dari revolusi AI ini.
Azure: Fondasi Kecerdasan Buatan Modern
Azure menawarkan berbagai layanan cloud, seperti komputasi, penyimpanan, dan jaringan. Dengan Azure, pengguna dapat membangun, mengelola, dan menerapkan aplikasi melalui pusat data global milik Microsoft. Infrastruktur inilah yang memungkinkan ChatGPT melayani jutaan pengguna secara efisien dan andal.
Namun, Azure bukan sekadar platform cloud biasa. Ini adalah hasil dari riset jangka panjang Microsoft dalam teknologi AI dan komputasi awan. Mark Russinovich, CTO Azure, menegaskan bahwa Microsoft telah mengembangkan AI selama 10 tahun terakhir. Dalam 10 tahun terakhir, terjadi percepatan besar dalam kemampuan AI, terutama didorong oleh peningkatan penggunaan GPU (Graphics Processing Unit) dan infrastruktur cloud skala besar.
Dalam beberapa tahun terakhir, Azure telah membangun perangkat keras dan perangkat lunak khusus untuk mendukung pelatihan model bahasa besar atau Large Language Model (LLM). Superkomputer AI di Azure mampu melatih model dengan ratusan miliar parameter. Model seperti GPT (Generative Pre-trained Transformer) belajar tentang bahasa melalui pembelajaran mandiri, mengolah miliaran halaman informasi berulang kali.
Teknologi Canggih di Balik Azure Supercomputer
GPU NVIDIA Tensor Core H100 Inti dari infrastruktur Azure adalah GPU NVIDIA Tensor Core H100 terbaru. GPU ini memberikan performa hingga 30 kali lebih cepat untuk inferensi dan 9 kali lebih cepat untuk pelatihan dibandingkan generasi sebelumnya, A100. Dibangun dengan 80 miliar transistor menggunakan teknologi TSMC 4N yang mutakhir, H100 mampu mempercepat AI, HPC (High-Performance Computing), bandwidth memori, interkoneksi, dan komunikasi dalam skala pusat data.
NVIDIA NVLink Switch System memungkinkan 256 GPU H100 dapat dihubungkan untuk mempercepat beban kerja. Secara sederhananya, NVLink Switch System adalah jaringan super cepat yang menghubungkan banyak kartu grafis (GPU) dalam sebuah superkomputer. Bayangkan jaringan ini seperti jalan raya dengan banyak lajur yang memungkinkan mobil (GPU) melaju kencang dan saling bertukar informasi dengan lancar. Transformer Engine juga digunakan untuk mendukung model bahasa dengan triliunan parameter.