Registro de métricas de avaliação
O programa de métricas de desempenho permite monitorar degradações e você pode tomar decisões sobre quando atualizar o modelo para manter um alto nível de precisão. Você decide que registrará as métricas depois que o modelo terminar um loop de avaliação.
Alguns dados foram pré-carregados:
accelerator
é uma instância deAccelerator
eval_metric
é um dicionário de métricas comoaccuracy
ef1
num_epochs
é o número de épocas
Este exercício faz parte do curso
Treinamento eficiente de modelos de IA com PyTorch
Instruções do exercício
- Chame um método para registrar as métricas de avaliação do modelo.
- Registro
"accuracy"
e pontuação"f1"
como métricas de avaliação. - Programe o número da época usando
epoch
do loop de treinamento.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")
for epoch in range(num_epochs):
# Training loop is here
# Evaluation loop is here
# Call a method to log metrics
____.____({
# Log accuracy and F1 score as metrics
"accuracy": ____["accuracy"],
"f1": ____["f1"],
# Track the epoch number
}, ____=____)
accelerator.end_training()