Text-Generierungsmetriken verstehen
Bei PyBooks hat das Team gerade die Leistung eines vortrainierten Modells mit dem BLEU-Score bewertet und ein Ergebnis von ungefähr 0,082 sowie einen rouge1_fmeasure von etwa 0,2692 erhalten. Diese Metriken geben Auskunft über Präzision (wie viele ausgewählte Elemente relevant sind) und Recall (wie viele relevante Elemente ausgewählt werden). Wie würdest du diese Werte in Bezug auf die Modellleistung interpretieren?
Diese Übung ist Teil des Kurses
Deep Learning für Text mit PyTorch
Interaktive Übung
In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.
Übung starten