Evaluationsmetriken protokollieren
Das Verfolgen von Leistungsmetriken ermöglicht es dir, Verschlechterungen zu erkennen und zu entscheiden, wann du dein Modell aktualisieren solltest, um eine hohe Genauigkeit zu halten. Du beschließt, Metriken zu protokollieren, nachdem dein Modell eine Evaluationsschleife abgeschlossen hat.
Einige Daten wurden vorab geladen:
acceleratorist eine Instanz vonAcceleratoreval_metricist ein Dictionary mit Metriken wieaccuracyundf1num_epochsist die Anzahl der Epochen
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Rufe eine Methode auf, um die Evaluationsmetriken des Modells zu protokollieren.
- Protokolliere
"accuracy"und"f1"als Evaluationsmetriken. - Verfolge die Epochenzahl mit
epochaus der Trainingsschleife.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")
for epoch in range(num_epochs):
# Training loop is here
# Evaluation loop is here
# Call a method to log metrics
____.____({
# Log accuracy and F1 score as metrics
"accuracy": ____["accuracy"],
"f1": ____["f1"],
# Track the epoch number
}, ____=____)
accelerator.end_training()