CommencerCommencer gratuitement

Fonctions d’activation : ReLU vs ELU

Le choix des fonctions d’activation utilisées dans le modèle (associé à l’initialisation des poids correspondante) peut avoir un fort impact sur l’entraînement. En particulier, une activation adaptée peut éviter au réseau de subir des problèmes de gradients instables.

Dans l’exercice précédent, vous êtes passé de ReLU à ELU. Vous souvenez-vous des caractéristiques de ces deux activations qui justifient ce changement ?

Cet exercice fait partie du cours

Deep learning intermédiaire avec PyTorch

Afficher le cours

Exercice interactif pratique

Passez de la théorie à la pratique avec l’un de nos exercices interactifs

Commencer l’exercice