ComeçarComece de graça

Registro de métricas de avaliação

O programa de métricas de desempenho permite monitorar degradações e você pode tomar decisões sobre quando atualizar o modelo para manter um alto nível de precisão. Você decide que registrará as métricas depois que o modelo terminar um loop de avaliação.

Alguns dados foram pré-carregados:

  • accelerator é uma instância de Accelerator
  • eval_metric é um dicionário de métricas como accuracy e f1
  • num_epochs é o número de épocas

Este exercício faz parte do curso

Treinamento eficiente de modelos de IA com PyTorch

Ver curso

Instruções do exercício

  • Chame um método para registrar as métricas de avaliação do modelo.
  • Registro "accuracy" e pontuação "f1" como métricas de avaliação.
  • Programe o número da época usando epoch do loop de treinamento.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

accelerator = Accelerator(project_dir=".", log_with="all")
accelerator.init_trackers("my_project")

for epoch in range(num_epochs):
    # Training loop is here
    # Evaluation loop is here
    # Call a method to log metrics
    ____.____({
        # Log accuracy and F1 score as metrics
        "accuracy": ____["accuracy"],
        "f1": ____["f1"],
    # Track the epoch number
    }, ____=____)

accelerator.end_training()
Editar e executar o código