ComenzarEmpieza gratis

Registro de métricas de evaluación

El seguimiento de las métricas de rendimiento te permite controlar las degradaciones, y puedes tomar decisiones sobre cuándo actualizar tu modelo para mantener un alto nivel de precisión. Decide que registrarás las métricas después de que tu modelo termine un bucle de evaluación.

Se han precargado algunos datos:

  • accelerator es una instancia de Accelerator
  • eval_metric es un diccionario de métricas como accuracy y f1
  • num_epochs es el número de épocas

Este ejercicio forma parte del curso

Entrenamiento eficiente de modelos de IA con PyTorch

Ver curso

Instrucciones del ejercicio

  • Llama a un método para registrar las métricas de evaluación del modelo.
  • Registro "accuracy" y "f1" puntuación como métricas de evaluación.
  • Realiza un seguimiento del número de épocas utilizando epoch del bucle de entrenamiento.

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")

for epoch in range(num_epochs):
    # Training loop is here
    # Evaluation loop is here
    # Call a method to log metrics
    ____.____({
        # Log accuracy and F1 score as metrics
        "accuracy": ____["accuracy"],
        "f1": ____["f1"],
    # Track the epoch number
    }, ____=____)

accelerator.end_training()
Editar y ejecutar código