Evaluationsmetriken definieren
Du entwickelst einen Echtzeit-Sprachübersetzungsdienst in einer Videokonferenz-Anwendung. Um das Training zu überwachen, definierst du Evaluationsmetriken für Accuracy und F1-Score, die die Gesamtleistung des Modells messen.
Die Bibliotheken evaluate und numpy (np) wurden bereits importiert.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Lade den
f1-Score mit derevaluate-Bibliothek;accuracywurde bereits für dich geladen. - Extrahiere
logitsundlabelsaus den Eingabeneval_predictions. - Wandle
logitsinpredictionsum. - Berechne den
f1-Score auf Basis vonpredictionsundlabels.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
def compute_metrics(eval_predictions):
load_accuracy = evaluate.load("accuracy")
# Load the F1 score
load_f1 = ____("____")
# Extract logits and labels from eval_predictions
____, ____ = eval_predictions
# Convert logits to predictions
predictions = np.____(____, axis=-1)
accuracy = load_accuracy.compute(predictions=predictions, references=labels)["accuracy"]
# Compute the F1 score
f1 = ____.____(predictions=predictions, references=labels)["f1"]
return {"accuracy": accuracy, "f1": f1}