IniziaInizia gratis

Calcolare la cross entropy loss

La cross-entropy loss è un metodo ampiamente usato per misurare l’errore nelle classificazioni. In questo esercizio calcolerai la cross-entropy loss in PyTorch usando:

  • y: l’etichetta reale (ground truth).
  • scores: un vettore di predizioni prima della softmax.

Le funzioni di loss aiutano le reti neurali a imparare misurando gli errori di previsione. Crea un vettore one-hot per y, definisci la funzione di loss cross-entropy e calcola la loss usando scores e l’etichetta codificata. Il risultato sarà un singolo float che rappresenta la loss del campione.

torch, CrossEntropyLoss e torch.nn.functional come F sono già stati importati per te.

Questo esercizio fa parte del corso

Introduzione al Deep Learning con PyTorch

Visualizza il corso

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss

y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])

# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)
Modifica ed esegui il codice