Pencarian global tidak diaktifkan.
Lewati ke konten utama
Interactive Content

5.3. Optimization Algorithm

Syarat penyelesaian
Complete the activity

Video tersebut menjelaskan berbagai algoritma optimisasi untuk memperbarui bobot dalam pelatihan jaringan saraf, termasuk SGD, Momentum, Adagrad, RMSprop, dan Adam, serta bagaimana masing-masing algoritma menangani masalah gradien dan laju pembelajaran untuk meningkatkan efisiensi pelatihan. Berikut adalah poin-poin ringkas dalam video.

  • 0:05-0:15 - Penjelasan tentang algoritma optimisasi yang digunakan untuk mencari minimum fungsi kerugian dalam jaringan saraf, setelah backpropagation menghitung gradien.
  • 1:05-2:00 - Penjelasan ulang tentang jaringan saraf: data masuk di lapisan input dan keluar di lapisan output, dengan fungsi kerugian dihitung untuk melatih bobot melalui gradien.
  • 2:00-3:20 - Masalah ketika dataset besar dan solusinya
  • 3:20-4:00 - Stochastic Gradient Descent: bobot (W) diperbarui dengan gradien yang diskalakan oleh learning rate (η). Laju pembelajaran adalah hiperparameter penting yang bisa memengaruhi performa.
  • 4:00-5:00 - Learning rate rendah memperlambat pelatihan, bisa membuat bobot terjebak di local minima. Learning rate tinggi bisa membantu bobot keluar dari local minima tapi berisiko melewati target minimum.
  • 5:00-6:30 - Momentum ditambahkan ke SGD untuk mempercepat pembaruan bobot, membantu melompati local minima dan mengurangi fluktuasi stokastik.
  • 6:30-8:00 - Adagrad: metode ini menyesuaikan learning rate dengan skala akar kuadrat dari gradien yang ditemukan sebelumnya, membantu parameter yang kurang sering diperbarui untuk mendapatkan peningkatan.
  • 8:00-10:00 - RMSprop: memperbaiki kekurangan Adagrad dengan memungkinkan learning rate meningkat atau menurun selama pelatihan, menggunakan parameter diskon untuk menyimpan gradien sebelumnya.
  • 10:00-12:00 - Adam (Adaptive Moment Estimation): menggabungkan kelebihan RMSprop dan momentum untuk mendapatkan pembaruan learning rate yang lebih adaptif dan efisien.