Cálculo da perda de entropia cruzada
A perda de entropia cruzada é um método muito utilizado para medir a perda na classificação. Neste exercício, você deve calcular a perda de entropia cruzada no PyTorch usando:
y
: o rótulo verdadeiro.scores
: um vetor de previsões antes do softmax.
As funções de perda ajudam as redes neurais a aprender medindo os erros das previsões. Crie um vetor com one-hot encoding para y
, defina a função de perda de entropia cruzada e calcule a perda usando scores
e o rótulo codificado. O resultado será um único float representando a perda da amostra.
torch
, CrossEntropyLoss
e torch.nn.functional
como F
já foram importados para você.
Este exercício faz parte do curso
Introdução ao Aprendizado Profundo com o PyTorch
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss
y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])
# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)