CommencerCommencer gratuitement

Mise en œuvre de ReLU

La fonction d’unité linéaire rectifiée (ReLU) est une fonction d’activation largement utilisée dans le deep learning qui permet de résoudre des problèmes tels que la disparition des gradients.

Dans cet exercice, vous allez implémenter ReLU dans PyTorch, l’appliquer à des valeurs positives et négatives, et observer les résultats.

Le paquet torch.nn a déjà été importé pour vous en tant que nn.

Cet exercice fait partie du cours

Introduction au deep learning avec PyTorch

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Create a ReLU function with PyTorch
relu_pytorch = ____
Modifier et exécuter le code