Registro de métricas de evaluación
El seguimiento de las métricas de rendimiento te permite controlar las degradaciones, y puedes tomar decisiones sobre cuándo actualizar tu modelo para mantener un alto nivel de precisión. Decide que registrarás las métricas después de que tu modelo termine un bucle de evaluación.
Se han precargado algunos datos:
acceleratores una instancia deAcceleratoreval_metrices un diccionario de métricas comoaccuracyyf1num_epochses el número de épocas
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Llama a un método para registrar las métricas de evaluación del modelo.
- Registro
"accuracy"y"f1"puntuación como métricas de evaluación. - Realiza un seguimiento del número de épocas utilizando
epochdel bucle de entrenamiento.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")
for epoch in range(num_epochs):
# Training loop is here
# Evaluation loop is here
# Call a method to log metrics
____.____({
# Log accuracy and F1 score as metrics
"accuracy": ____["accuracy"],
"f1": ____["f1"],
# Track the epoch number
}, ____=____)
accelerator.end_training()