Fonctions d’activation : ReLU vs ELU
Le choix des fonctions d’activation utilisées dans le modèle (associé à l’initialisation des poids correspondante) peut avoir un fort impact sur l’entraînement. En particulier, une activation adaptée peut éviter au réseau de subir des problèmes de gradients instables.
Dans l’exercice précédent, vous êtes passé de ReLU à ELU. Vous souvenez-vous des caractéristiques de ces deux activations qui justifient ce changement ?
Cet exercice fait partie du cours
Deep learning intermédiaire avec PyTorch
Exercice interactif pratique
Passez de la théorie à la pratique avec l’un de nos exercices interactifs
Commencer l’exercice