Menghitung cross-entropy loss
Cross-entropy loss adalah metode yang banyak digunakan untuk mengukur loss pada klasifikasi. Pada latihan ini, Anda akan menghitung cross-entropy loss di PyTorch menggunakan:
y: label ground truth.scores: vektor prediksi sebelum softmax.
Fungsi loss membantu neural network belajar dengan mengukur kesalahan prediksi. Buat vektor one-hot untuk y, definisikan fungsi cross-entropy loss, dan hitung loss menggunakan scores dan label yang telah dienkode. Hasilnya berupa sebuah nilai float tunggal yang merepresentasikan loss sampel.
torch, CrossEntropyLoss, dan torch.nn.functional sebagai F sudah diimpor untuk Anda.
Latihan ini adalah bagian dari kursus
Pengantar Deep Learning dengan PyTorch
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss
y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])
# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)