LoslegenKostenlos loslegen

Vortrainiertes Textgenerierungsmodell bewerten

Das PyBooks-Team hat ein vortrainiertes GPT-2-Modell verwendet, mit dem du bereits experimentiert hast, um auf Basis eines gegebenen Prompts Text zu generieren. Jetzt möchte das Team die Qualität dieses generierten Texts bewerten. Dafür sollst du den generierten Text mithilfe eines Referenztexts evaluieren.

BLEUScore, ROUGEScore wurden bereits für dich geladen.

Diese Übung ist Teil des Kurses

Deep Learning für Text mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Initialisiere zuerst die beiden Metriken (BLEU und ROUGE) aus torchmetrics.text.
  • Verwende diese initialisierten Metriken, um die Scores zwischen dem generierten Text und dem Referenztext zu berechnen.
  • Gib die berechneten BLEU- und ROUGE-Scores aus.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

reference_text = "Once upon a time, there was a little girl who lived in a village near the forest."
generated_text = "Once upon a time, the world was a place of great beauty and great danger. The world of the gods was the place where the great gods were born, and where they were to live."

# Initialize BLEU and ROUGE scorers
bleu = ____()
rouge = ____()

# Calculate the BLEU and ROUGE scores
bleu_score = bleu([____], [[reference_text]])
rouge_score = rouge([generated_text], [[____]])

# Print the BLEU and ROUGE scores
print("BLEU Score:", bleu_score.____())
print("ROUGE Score:", rouge_score)
Code bearbeiten und ausführen