Les fonctions sigmoid et softmax
Les fonctions sigmoid et softmax sont des fonctions d’activation clés en deep learning, souvent utilisées comme étape finale dans un réseau neuronal.
- La fonction sigmoid est utilisée pour la classification binaire
- La fonction softmax est destinés à la classification multi-classes
Étant donné un tenseur de sortie de pré-activation d’un réseau, appliquez la fonction d’activation appropriée pour obtenir la sortie finale.
torch.nn a déjà été importé en tant que nn.
Cet exercice fait partie du cours
Introduction au deep learning avec PyTorch
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
input_tensor = torch.tensor([[2.4]])
# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)