LoslegenKostenlos loslegen

Text-Generierungsmetriken verstehen

Bei PyBooks hat das Team gerade die Leistung eines vortrainierten Modells mit dem BLEU-Score bewertet und ein Ergebnis von ungefähr 0,082 sowie einen rouge1_fmeasure von etwa 0,2692 erhalten. Diese Metriken geben Auskunft über Präzision (wie viele ausgewählte Elemente relevant sind) und Recall (wie viele relevante Elemente ausgewählt werden). Wie würdest du diese Werte in Bezug auf die Modellleistung interpretieren?

Diese Übung ist Teil des Kurses

Deep Learning für Text mit PyTorch

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten