Bewertungsmetriken definieren
Du entwickelst einen Echtzeit-Sprachübersetzungsdienst für eine Videokonferenzanwendung. Um das Training zu überwachen, legst du Bewertungskennzahlen für die Genauigkeit und den F1-Score fest, die die Gesamtleistung des Modells messen.
Die Bibliotheken evaluate
und numpy
(np
) sind vorimportiert worden.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Lade die Partitur
f1
mit Hilfe der Bibliothekevaluate
;accuracy
wurde bereits für dich geladen. - Extrahiere
logits
undlabels
aus der Eingabeeval_predictions
. logits
inpredictions
umwandeln.- Berechne die Punktzahl
f1
auf der Grundlage vonpredictions
undlabels
.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
def compute_metrics(eval_predictions):
load_accuracy = evaluate.load("accuracy")
# Load the F1 score
load_f1 = ____("____")
# Extract logits and labels from eval_predictions
____, ____ = eval_predictions
# Convert logits to predictions
predictions = np.____(____, axis=-1)
accuracy = load_accuracy.compute(predictions=predictions, references=labels)["accuracy"]
# Compute the F1 score
f1 = ____.____(predictions=predictions, references=labels)["f1"]
return {"accuracy": accuracy, "f1": f1}