ComenzarEmpieza gratis

Registro de métricas de evaluación

Hacer un seguimiento de las métricas de rendimiento te permite monitorizar degradaciones y decidir cuándo actualizar tu modelo para mantener un alto nivel de accuracy. Has decidido registrar métricas después de que tu modelo termine un bucle de evaluación.

Se han pre-cargado algunos datos:

  • accelerator es una instancia de Accelerator
  • eval_metric es un diccionario de métricas como accuracy y f1
  • num_epochs es el número de épocas

Este ejercicio forma parte del curso

Entrenamiento eficiente de modelos de IA con PyTorch

Ver curso

Instrucciones del ejercicio

  • Llama a un método para registrar las métricas de evaluación del modelo.
  • Registra las puntuaciones de "accuracy" y "f1" como métricas de evaluación.
  • Haz seguimiento del número de época usando epoch del bucle de entrenamiento.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")

for epoch in range(num_epochs):
    # Training loop is here
    # Evaluation loop is here
    # Call a method to log metrics
    ____.____({
        # Log accuracy and F1 score as metrics
        "accuracy": ____["accuracy"],
        "f1": ____["f1"],
    # Track the epoch number
    }, ____=____)

accelerator.end_training()
Editar y ejecutar código