Cálculo de la pérdida de entropía cruzada
La pérdida de entropía cruzada es un método muy utilizado para medir la pérdida de clasificación. En este ejercicio, calcularás la pérdida de entropía cruzada en PyTorch utilizando:
y
: la etiqueta de verdad fundamental.scores
: un vector de predicciones antes de softmax.
Las funciones de pérdida ayudan a las redes neuronales a aprender midiendo los errores de predicción. Crea un vector codificado con programación one-hot para y
, define la función de pérdida de entropía cruzada y calcula la pérdida utilizando scores
y la etiqueta codificada. El resultado será un único valor flotante que representa la pérdida de la muestra.
Ya se han importado torch
, CrossEntropyLoss
y torch.nn.functional
como F
.
Este ejercicio forma parte del curso
Introducción al aprendizaje profundo con PyTorch
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss
y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])
# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)