Aktivasi: ReLU vs. ELU
Pilihan fungsi aktivasi yang digunakan dalam model (dipadukan dengan inisialisasi bobot yang sesuai) dapat sangat memengaruhi proses pelatihan. Khususnya, aktivasi yang tepat dapat mencegah jaringan mengalami masalah gradien tidak stabil.
Pada latihan sebelumnya, Anda telah beralih dari aktivasi ReLU ke ELU. Apakah Anda ingat karakteristik kedua aktivasi yang membenarkan perubahan ini?
Latihan ini adalah bagian dari kursus
Deep Learning Lanjutan dengan PyTorch
Latihan interaktif praktis
Ubah teori menjadi tindakan dengan salah satu latihan interaktif kami.
Mulai berolahraga