Sedang ramai dibicarakan suatu aplikasi yang berhasil membuat saham Nvidia anjlok 12%, ya DeepSeek. Apa itu DeepSeek? Perusahaan AI (Artificial Intelligence) dari Tiongkok yang mengembangkan Large Language Models (LLM), sama seperti ChatGPT dari OpenAI.
Yang menarik adalah DeepSeek mengklaim hanya butuh 55 hari untuk menyelesaikan semua proses, dan menghabiskan 5.58 juta USD, tentunya nominal ini 10 kali lebih kecil dibanding OpenAI. Apakah hal tersebut memungkinkan?
Mengutip pernyataan David Sacks, pimpinan AI dan Kripto Gedung Putih, bahwa ini merupakan bagian dari 'knowledge distillation' atau proses menyaring informasi dari model machine learning yang lebih kompleks, dimana dilakukan oleh machine learning yang lebih sederhana.
Hal ini yang membuat waktu pembuatan lebih singkat dan biaya yang dikeluarkan lebih murah, namun bagaimana akurasi dari DeepSeek? Berdasarkan Reuters, akurasi dari DeepSeek adalah 17% dalam audit NewsGuard, yang membuat DeepSeek harus bertengger di urutan 10 dari 11 dari pesaingnya, seperti OpenAI dan Gemini.
Dengan informasi tersebut, menarik untuk memahami lebih dalam terkait 'Knowledge Distillation', bagaimana Tiongkok mencoba bersaing dengan Amerika Serikat, setelah Trump resmi menyatakan akan mempersulit perdagangan Tiongkok di Negeri Paman Sam.
Baca juga: Peluang Prompt Engineering Menuju Masa Depan AI
Apa itu Knowledge Distillation dari Munculnya DeepSeek?
OpenAI, Gemini, dan DeepSeek merupakan bagian dari Large Language Model, suatu model kecerdasan buatan atau AI dengan data dalam jumlah besar (minimal satu milyar atau lebih parameter) yang dapat menghasilkan dan memahami bahasa manusia.
Karena membutuhkan sumber daya dan parameter yang besar, 'knowledge distillation' muncul sebagai solusi untuk membuat AI yang lebih efisien untuk tugas-tugas tertentu dengan modal yang kecil.
Pada dasarnya, metode ini memungkinkan untuk pengembang mentransfer 'knowledge' dalam hal ini informasi atau parameter dari model yang lebih besar dan kompleks ke model yang lebih kecil, misalkan saja seorang profesor mentransfer 'ilmu' ke seorang mahasiswa magang.
Dengan harapan, mahasiwa magang akan memiliki performa yang serupa dengan profesor, namun dengan sumber daya dan waktu yang lebih sedikit, seperti waktu dan biaya praktek, informasi media, dan lainnya.
Nah, dalam kasus DeepSeek dan OpenAI, secara bisnis metode ini akan mengurangi ukuran, memori, daya pemrosesan, dan kompleksitas komputasi model yang dihasilkan. Hal ini penting untuk aplikasi real-time yang mengutamakan kecepatan dan efisiensi.
Baca juga: Skill Penting di Era Digital, Prompt AI