Aan de slagGa gratis aan de slag

Een voorgetraind model voor tekstgeneratie evalueren

Het PyBooks-team heeft een voorgetraind GPT-2-model gebruikt waarmee je hebt geëxperimenteerd om tekst te genereren op basis van een gegeven prompt. Nu willen ze de kwaliteit van deze gegenereerde tekst evalueren. Daarvoor hebben ze jou gevraagd de gegenereerde tekst te beoordelen met behulp van een referentietekst.

BLEUScore, ROUGEScore zijn voor je geladen.

Deze oefening maakt deel uit van de cursus

Deep Learning voor tekst met PyTorch

Cursus bekijken

Oefeninstructies

  • Begin met het initialiseren van de twee metriekwaarden (BLEU en ROUGE) uit torchmetrics.text.
  • Gebruik deze geïnitialiseerde metriekwaarden om de scores tussen de gegenereerde tekst en de referentietekst te berekenen.
  • Toon de berekende BLEU- en ROUGE-scores.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

reference_text = "Once upon a time, there was a little girl who lived in a village near the forest."
generated_text = "Once upon a time, the world was a place of great beauty and great danger. The world of the gods was the place where the great gods were born, and where they were to live."

# Initialize BLEU and ROUGE scorers
bleu = ____()
rouge = ____()

# Calculate the BLEU and ROUGE scores
bleu_score = bleu([____], [[reference_text]])
rouge_score = rouge([generated_text], [[____]])

# Print the BLEU and ROUGE scores
print("BLEU Score:", bleu_score.____())
print("ROUGE Score:", rouge_score)
Code bewerken en uitvoeren