LoslegenKostenlos loslegen

Evaluationsmetriken protokollieren

Das Verfolgen von Leistungsmetriken ermöglicht es dir, Verschlechterungen zu erkennen und zu entscheiden, wann du dein Modell aktualisieren solltest, um eine hohe Genauigkeit zu halten. Du beschließt, Metriken zu protokollieren, nachdem dein Modell eine Evaluationsschleife abgeschlossen hat.

Einige Daten wurden vorab geladen:

  • accelerator ist eine Instanz von Accelerator
  • eval_metric ist ein Dictionary mit Metriken wie accuracy und f1
  • num_epochs ist die Anzahl der Epochen

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Rufe eine Methode auf, um die Evaluationsmetriken des Modells zu protokollieren.
  • Protokolliere "accuracy" und "f1" als Evaluationsmetriken.
  • Verfolge die Epochenzahl mit epoch aus der Trainingsschleife.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")

for epoch in range(num_epochs):
    # Training loop is here
    # Evaluation loop is here
    # Call a method to log metrics
    ____.____({
        # Log accuracy and F1 score as metrics
        "accuracy": ____["accuracy"],
        "f1": ____["f1"],
    # Track the epoch number
    }, ____=____)

accelerator.end_training()
Code bearbeiten und ausführen