MulaiMulai sekarang secara gratis

Aktivasi: ReLU vs. ELU

Pilihan fungsi aktivasi yang digunakan dalam model (dipadukan dengan inisialisasi bobot yang sesuai) dapat sangat memengaruhi proses pelatihan. Khususnya, aktivasi yang tepat dapat mencegah jaringan mengalami masalah gradien tidak stabil.

Pada latihan sebelumnya, Anda telah beralih dari aktivasi ReLU ke ELU. Apakah Anda ingat karakteristik kedua aktivasi yang membenarkan perubahan ini?

Latihan ini adalah bagian dari kursus

Deep Learning Lanjutan dengan PyTorch

Lihat Kursus

Latihan interaktif praktis

Ubah teori menjadi tindakan dengan salah satu latihan interaktif kami.

Mulai berolahraga