CommencerCommencer gratuitement

Les fonctions sigmoid et softmax

Les fonctions sigmoid et softmax sont des fonctions d’activation clés en deep learning, souvent utilisées comme étape finale dans un réseau neuronal.

  • La fonction sigmoid est utilisée pour la classification binaire
  • La fonction softmax est destinés à la classification multi-classes

Étant donné un tenseur de sortie de pré-activation d’un réseau, appliquez la fonction d’activation appropriée pour obtenir la sortie finale.

torch.nn a déjà été importé en tant que nn.

Cet exercice fait partie du cours

Introduction au deep learning avec PyTorch

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

input_tensor = torch.tensor([[2.4]])

# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)
Modifier et exécuter le code