Les fonctions sigmoid et softmax
Les fonctions sigmoid et softmax sont des fonctions d’activation clés en deep learning, souvent utilisées comme étape finale dans un réseau neuronal.
- La fonction sigmoid est utilisée pour la classification binaire
- La fonction softmax est destinés à la classification multi-classes
Étant donné un tenseur de sortie de pré-activation d’un réseau, appliquez la fonction d’activation appropriée pour obtenir la sortie finale.
torch.nn
a déjà été importé en tant que nn
.
Cet exercice fait partie du cours
Introduction au deep learning avec PyTorch
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
input_tensor = torch.tensor([[2.4]])
# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)