Aktivasyonlar: ReLU vs. ELU
Modelde kullanılan aktivasyon fonksiyonlarının seçimi (ilgili ağırlık başlatma ile birlikte) eğitim süreci üzerinde güçlü bir etkiye sahip olabilir. Özellikle, doğru aktivasyon kararsız gradyan sorunlarını önlemeye yardımcı olabilir.
Önceki egzersizde, ReLU’dan ELU aktivasyonlarına geçiş yaptın. Bu değişikliği haklı çıkaran, iki aktivasyonun hangi özellikleriydi, hatırlıyor musun?
Bu egzersiz
PyTorch ile Orta Düzey Deep Learning
kursunun bir parçasıdırUygulamalı interaktif egzersiz
İnteraktif egzersizlerimizden biriyle teoriyi pratiğe dökün
Egzersizi başlat