Cross-entropy loss berekenen
Cross-entropy loss is een veelgebruikte methode om classificatieverlies te meten. In deze oefening bereken je de cross-entropy loss in PyTorch met:
y: het grondwaarheidslabel.scores: een vector met voorspellingen vóór softmax.
Verliesfuncties helpen neurale netwerken leren door voorspellingsfouten te meten. Maak een one-hot-gecodeerde vector voor y, definieer de cross-entropy lossfunctie en bereken de loss met scores en het gecodeerde label. Het resultaat is één float die het verlies van dit sample weergeeft.
torch, CrossEntropyLoss en torch.nn.functional als F zijn al voor je geïmporteerd.
Deze oefening maakt deel uit van de cursus
Introductie tot Deep Learning met PyTorch
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss
y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])
# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)