CommencerCommencer gratuitement

Activations : ReLU vs. ELU

Le choix des fonctions d'activation utilisées dans le modèle (combiné à l'initialisation des poids correspondants) peut avoir un impact important sur le processus d'apprentissage. En particulier, une activation appropriée peut empêcher le réseau de connaître des problèmes de gradients instables.

Dans l'exercice précédent, vous êtes passé des activations ReLU à ELU. Vous souvenez-vous des caractéristiques des deux activations qui justifient ce changement ?

Cet exercice fait partie du cours

Apprentissage profond intermédiaire avec PyTorch

Afficher le cours

Exercice interactif pratique

Passez de la théorie à la pratique avec l’un de nos exercices interactifs

Commencer l’exercice