Mohon tunggu...
SYUK RINA BTE AMIRUDIN
SYUK RINA BTE AMIRUDIN Mohon Tunggu... Lainnya - Mahasiswa/universitas halu oleo

Hobi bulu tangkis

Selanjutnya

Tutup

Pendidikan

Penerapan Aljabar dalam Jaringan Saraf Tiruan (Neural Networks)

4 Juni 2024   08:14 Diperbarui: 4 Juni 2024   08:34 169
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
Bagikan ide kreativitasmu dalam bentuk konten di Kompasiana | Sumber gambar: Freepik

Propagasi Balik (Backpropagation)

Propagasi balik adalah algoritma utama untuk melatih jaringan saraf. Algoritma ini bekerja dengan meminimalkan fungsi biaya (cost function) melalui proses pembelajaran. Ini melibatkan perhitungan gradien dari fungsi biaya terhadap setiap bobot dalam jaringan dan memperbarui bobot-bobot tersebut. Langkah-langkah dalam propagasi balik meliputi:

1. Hitung Kesalahan Output:

delta^(L) = nabla_a C * f'(z^(L))

Di sini, delta^(L) adalah kesalahan pada lapisan output, nabla_a C adalah gradien fungsi biaya terhadap aktivasi lapisan output, dan f'(z^(L)) adalah turunan dari fungsi aktivasi pada lapisan L.

2. Perbarui Bobot dan Bias:

W^(l) = W^(l) - eta * delta^(l+1) * a^(l)^T

b^(l) = b^(l) - eta * delta^(l+1)

Di sini, eta adalah laju pembelajaran (learning rate), delta^(l+1) adalah kesalahan pada lapisan berikutnya, dan a^(l)^T adalah transpose dari vektor aktivasi pada lapisan l.

3. Hitung Kesalahan untuk Lapisan Sebelumnya:

delta^(l) = (W^(l+1)^T * delta^(l+1)) * f'(z^(l))

HALAMAN :
  1. 1
  2. 2
  3. 3
  4. 4
Mohon tunggu...

Lihat Konten Pendidikan Selengkapnya
Lihat Pendidikan Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun