Activations : ReLU vs. ELU
Le choix des fonctions d'activation utilisées dans le modèle (combiné à l'initialisation des poids correspondants) peut avoir un impact important sur le processus d'apprentissage. En particulier, une activation appropriée peut empêcher le réseau de connaître des problèmes de gradients instables.
Dans l'exercice précédent, vous êtes passé des activations ReLU à ELU. Vous souvenez-vous des caractéristiques des deux activations qui justifient ce changement ?
Cet exercice fait partie du cours
Apprentissage profond intermédiaire avec PyTorch
Exercice interactif pratique
Passez de la théorie à la pratique avec l’un de nos exercices interactifs
