Mohon tunggu...
Wiwik Agustina
Wiwik Agustina Mohon Tunggu... Lainnya - Writer and Long Life Learner

Concern about Self Development and Poverty. Welcome to My Universe! From science to digital marketer. I believe that humans do what they think, and think what they believe, let's start changing our thoughts through sentences.

Selanjutnya

Tutup

Artificial intelligence Pilihan

Apa itu Knowledge Distillation dari Kemunculan DeepSeek, Apa dan Bagaimana Kerjanya?

30 Januari 2025   15:55 Diperbarui: 30 Januari 2025   15:55 51
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Ilustrasi Machine Learning (Source: deepai.org)

Sedang ramai dibicarakan suatu aplikasi yang berhasil membuat saham Nvidia anjlok 12%, ya DeepSeek. Apa itu DeepSeek? Perusahaan AI (Artificial Intelligence) dari Tiongkok yang mengembangkan Large Language Models (LLM), sama seperti ChatGPT dari OpenAI.

Yang menarik adalah DeepSeek mengklaim hanya butuh 55 hari untuk menyelesaikan semua proses, dan menghabiskan 5.58 juta USD, tentunya nominal ini 10 kali lebih kecil dibanding OpenAI. Apakah hal tersebut memungkinkan?

Mengutip pernyataan David Sacks, pimpinan AI dan Kripto Gedung Putih, bahwa ini merupakan bagian dari 'knowledge distillation' atau proses menyaring informasi dari model machine learning yang lebih kompleks, dimana dilakukan oleh machine learning yang lebih sederhana.

Hal ini yang membuat waktu pembuatan lebih singkat dan biaya yang dikeluarkan lebih murah, namun bagaimana akurasi dari DeepSeek? Berdasarkan Reuters, akurasi dari DeepSeek adalah 17% dalam audit NewsGuard, yang membuat DeepSeek harus bertengger di urutan 10 dari 11 dari pesaingnya, seperti OpenAI dan Gemini.

Dengan informasi tersebut, menarik untuk memahami lebih dalam terkait 'Knowledge Distillation', bagaimana Tiongkok mencoba bersaing dengan Amerika Serikat, setelah Trump resmi menyatakan akan mempersulit perdagangan Tiongkok di Negeri Paman Sam.

Baca juga: Peluang Prompt Engineering Menuju Masa Depan AI

Apa itu Knowledge Distillation dari Munculnya DeepSeek?

OpenAI, Gemini, dan DeepSeek merupakan bagian dari Large Language Model, suatu model kecerdasan buatan atau AI dengan data dalam jumlah besar (minimal satu milyar atau lebih parameter) yang dapat menghasilkan dan memahami bahasa manusia.

Karena membutuhkan sumber daya dan parameter yang besar, 'knowledge distillation' muncul sebagai solusi untuk membuat AI yang lebih efisien untuk tugas-tugas tertentu dengan modal yang kecil.

Pada dasarnya, metode ini memungkinkan untuk pengembang mentransfer 'knowledge' dalam hal ini informasi atau parameter dari model yang lebih besar dan kompleks ke model yang lebih kecil, misalkan saja seorang profesor mentransfer 'ilmu' ke seorang mahasiswa magang.

Dengan harapan, mahasiwa magang akan memiliki performa yang serupa dengan profesor, namun dengan sumber daya dan waktu yang lebih sedikit, seperti waktu dan biaya praktek, informasi media, dan lainnya.

Nah, dalam kasus DeepSeek dan OpenAI, secara bisnis metode ini akan mengurangi ukuran, memori, daya pemrosesan, dan kompleksitas komputasi model yang dihasilkan. Hal ini penting untuk aplikasi real-time yang mengutamakan kecepatan dan efisiensi.

Baca juga: Skill Penting di Era Digital, Prompt AI

Cara Kerja Knowledge Distillation

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Artificial intelligence Selengkapnya
Lihat Artificial intelligence Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun