Registro de métricas de evaluación
El seguimiento de las métricas de rendimiento te permite controlar las degradaciones, y puedes tomar decisiones sobre cuándo actualizar tu modelo para mantener un alto nivel de precisión. Decide que registrarás las métricas después de que tu modelo termine un bucle de evaluación.
Se han precargado algunos datos:
accelerator
es una instancia deAccelerator
eval_metric
es un diccionario de métricas comoaccuracy
yf1
num_epochs
es el número de épocas
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Llama a un método para registrar las métricas de evaluación del modelo.
- Registro
"accuracy"
y"f1"
puntuación como métricas de evaluación. - Realiza un seguimiento del número de épocas utilizando
epoch
del bucle de entrenamiento.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")
for epoch in range(num_epochs):
# Training loop is here
# Evaluation loop is here
# Call a method to log metrics
____.____({
# Log accuracy and F1 score as metrics
"accuracy": ____["accuracy"],
"f1": ____["f1"],
# Track the epoch number
}, ____=____)
accelerator.end_training()