Mise en œuvre de ReLU
La fonction d’unité linéaire rectifiée (ReLU) est une fonction d’activation largement utilisée dans le deep learning qui permet de résoudre des problèmes tels que la disparition des gradients.
Dans cet exercice, vous allez implémenter ReLU dans PyTorch, l’appliquer à des valeurs positives et négatives, et observer les résultats.
Le paquet torch.nn
a déjà été importé pour vous en tant que nn
.
Cet exercice fait partie du cours
Introduction au deep learning avec PyTorch
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Create a ReLU function with PyTorch
relu_pytorch = ____