Registro de métricas de evaluación
Hacer un seguimiento de las métricas de rendimiento te permite monitorizar degradaciones y decidir cuándo actualizar tu modelo para mantener un alto nivel de accuracy. Has decidido registrar métricas después de que tu modelo termine un bucle de evaluación.
Se han pre-cargado algunos datos:
acceleratores una instancia deAcceleratoreval_metrices un diccionario de métricas comoaccuracyyf1num_epochses el número de épocas
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Llama a un método para registrar las métricas de evaluación del modelo.
- Registra las puntuaciones de
"accuracy"y"f1"como métricas de evaluación. - Haz seguimiento del número de época usando
epochdel bucle de entrenamiento.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")
for epoch in range(num_epochs):
# Training loop is here
# Evaluation loop is here
# Call a method to log metrics
____.____({
# Log accuracy and F1 score as metrics
"accuracy": ____["accuracy"],
"f1": ____["f1"],
# Track the epoch number
}, ____=____)
accelerator.end_training()