Calcolare la cross entropy loss
La cross-entropy loss è un metodo ampiamente usato per misurare l’errore nelle classificazioni. In questo esercizio calcolerai la cross-entropy loss in PyTorch usando:
y: l’etichetta reale (ground truth).scores: un vettore di predizioni prima della softmax.
Le funzioni di loss aiutano le reti neurali a imparare misurando gli errori di previsione. Crea un vettore one-hot per y, definisci la funzione di loss cross-entropy e calcola la loss usando scores e l’etichetta codificata. Il risultato sarà un singolo float che rappresenta la loss del campione.
torch, CrossEntropyLoss e torch.nn.functional come F sono già stati importati per te.
Questo esercizio fa parte del corso
Introduzione al Deep Learning con PyTorch
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss
y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])
# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)