MulaiMulai sekarang secara gratis

Menghitung cross-entropy loss

Cross-entropy loss adalah metode yang banyak digunakan untuk mengukur loss pada klasifikasi. Pada latihan ini, Anda akan menghitung cross-entropy loss di PyTorch menggunakan:

  • y: label ground truth.
  • scores: vektor prediksi sebelum softmax.

Fungsi loss membantu neural network belajar dengan mengukur kesalahan prediksi. Buat vektor one-hot untuk y, definisikan fungsi cross-entropy loss, dan hitung loss menggunakan scores dan label yang telah dienkode. Hasilnya berupa sebuah nilai float tunggal yang merepresentasikan loss sampel.

torch, CrossEntropyLoss, dan torch.nn.functional sebagai F sudah diimpor untuk Anda.

Latihan ini adalah bagian dari kursus

Pengantar Deep Learning dengan PyTorch

Lihat Kursus

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

import torch
import torch.nn.functional as F
from torch.nn import CrossEntropyLoss

y = [2]
scores = torch.tensor([[0.1, 6.0, -2.0, 3.2]])

# Create a one-hot encoded vector of the label y
one_hot_label = F.____(torch.____(____), num_classes=____)
Edit dan Jalankan Kode