CommencerCommencer gratuitement

Journaliser les métriques d’évaluation

Suivre les métriques de performance vous permet de détecter les dégradations et de décider quand mettre à jour votre modèle pour conserver un haut niveau d’accuracy. Vous décidez d’enregistrer les métriques après que votre modèle a terminé une boucle d’évaluation.

Des données ont été préchargées :

  • accelerator est une instance de Accelerator
  • eval_metric est un dictionnaire de métriques comme accuracy et f1
  • num_epochs est le nombre d’époques

Cet exercice fait partie du cours

Entraîner efficacement des modèles d’IA avec PyTorch

Afficher le cours

Instructions

  • Appelez une méthode pour journaliser les métriques d’évaluation du modèle.
  • Enregistrez les scores "accuracy" et "f1" comme métriques d’évaluation.
  • Suivez le numéro d’époque en utilisant epoch de la boucle d’entraînement.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")

for epoch in range(num_epochs):
    # Training loop is here
    # Evaluation loop is here
    # Call a method to log metrics
    ____.____({
        # Log accuracy and F1 score as metrics
        "accuracy": ____["accuracy"],
        "f1": ____["f1"],
    # Track the epoch number
    }, ____=____)

accelerator.end_training()
Modifier et exécuter le code