BaşlayınÜcretsiz Başlayın

Aktivasyonlar: ReLU vs. ELU

Modelde kullanılan aktivasyon fonksiyonlarının seçimi (ilgili ağırlık başlatma ile birlikte) eğitim süreci üzerinde güçlü bir etkiye sahip olabilir. Özellikle, doğru aktivasyon kararsız gradyan sorunlarını önlemeye yardımcı olabilir.

Önceki egzersizde, ReLU’dan ELU aktivasyonlarına geçiş yaptın. Bu değişikliği haklı çıkaran, iki aktivasyonun hangi özellikleriydi, hatırlıyor musun?

Bu egzersiz

PyTorch ile Orta Düzey Deep Learning

kursunun bir parçasıdır
Kursu Görüntüle

Uygulamalı interaktif egzersiz

İnteraktif egzersizlerimizden biriyle teoriyi pratiğe dökün

Egzersizi başlat