Mohon tunggu...
SYUK RINA BTE AMIRUDIN
SYUK RINA BTE AMIRUDIN Mohon Tunggu... Lainnya - Mahasiswa/universitas halu oleo

Hobi bulu tangkis

Selanjutnya

Tutup

Pendidikan

Penerapan Aljabar dalam Jaringan Saraf Tiruan (Neural Networks)

4 Juni 2024   08:14 Diperbarui: 4 Juni 2024   08:34 169
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Pendidikan. Sumber ilustrasi: PEXELS/McElspeth

Optimasi dengan Gradient Descent

Gradient Descent adalah algoritma optimasi yang digunakan untuk memperbarui bobot dengan tujuan meminimalkan fungsi biaya:

w:= w - eta * nabla J(w)

Di sini, w adalah vektor bobot, eta adalah laju pembelajaran, dan nabla J(w) adalah gradien fungsi biaya terhadap bobot. Algoritma ini secara iteratif memperbarui bobot untuk mendekati nilai yang meminimalkan fungsi biaya, sehingga jaringan saraf dapat mempelajari pola dari data pelatihan.


Kesimpulan

Aljabar linier adalah komponen kunci dalam jaringan saraf tiruan, memungkinkan representasi dan manipulasi data melalui operasi matematika yang efisien. Dari propagasi maju hingga propagasi balik dan optimasi, operasi aljabar linier mendukung pengembangan dan pelatihan jaringan saraf yang efektif. Pemahaman mendalam tentang aljabar linier sangat penting untuk menguasai teknologi jaringan saraf tiruan dan kecerdasan buatan pada umumnya.

Referensi

1.  Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.

2.  Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer.


HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
Mohon tunggu...

Lihat Konten Pendidikan Selengkapnya
Lihat Pendidikan Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun