1. 학습
  2. /
  3. 강의
  4. /
  5. PyTorch로 배우는 딥러닝 입문

Connected

연습 문제

크로스 엔트로피 손실 계산하기

크로스 엔트로피 손실은 분류 문제에서 널리 쓰이는 손실 측정 방법입니다. 이 연습 문제에서는 PyTorch에서 다음을 사용해 크로스 엔트로피 손실을 계산해 보겠습니다:

  • y: 정답 레이블(ground truth).
  • scores: 소프트맥스 적용 전 예측 점수 벡터.

손실 함수는 예측 오차를 측정해 신경망이 학습하도록 도와줍니다. y에 대한 원-핫 인코딩 벡터를 만들고, 크로스 엔트로피 손실 함수를 정의한 뒤, scores와 인코딩된 레이블을 사용해 손실을 계산하세요. 결과는 해당 샘플의 손실을 나타내는 단일 부동소수점 값입니다.

torch, CrossEntropyLoss, 그리고 torch.nn.functional의 F는 이미 임포트되어 있습니다.

지침 1/3

undefined XP
    1
    2
    3
  • 정답 레이블 y의 원-핫 인코딩 벡터를 클래스별 4개 특성으로 만들어 one_hot_label에 할당하세요.