CommencerCommencer gratuitement

Calcul de la perte d’entropie croisée

La perte d’entropie croisée est une méthode largement utilisée pour mesurer la perte de classification. Dans cet exercice, vous calculerez la perte d’entropie croisée dans PyTorch en utilisant :

  • y : l’étiquette de la vérité terrain.
  • scores : un vecteur de prédictions avant softmax.

Les fonctions de perte aident les réseaux neuronaux à apprendre en mesurant les erreurs de prédiction. Créez un vecteur encodé one-hot pour y, définissez la fonction de perte d’entropie croisée et calculez la perte à l’aide de scores et de l’étiquette encodée. Le résultat sera un flottant unique représentant la perte de l’échantillon.

torch, CrossEntropyLoss, et torch.nn.functional (sous le nom F) ont déjà été importés pour vous.

Cet exercice fait partie du cours

Introduction au deep learning avec PyTorch

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss

y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])

# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)
Modifier et exécuter le code