ComeçarComece de graça

AdamW com Trainer

Você está começando a treinar um modelo Transformer para simplificar traduções de linguagem. Como primeiro passo, você decide usar o otimizador AdamW como referência e a interface Trainer para uma configuração rápida. Configure o Trainer para usar o optimizer AdamW.

AdamW já foi importado de torch.optim. Alguns objetos de treinamento já foram carregados: model, training_args, train_dataset, validation_dataset, compute_metrics.

Este exercício faz parte do curso

Treinamento Eficiente de Modelos de IA com PyTorch

Ver curso

Instruções do exercício

  • Passe os parâmetros de model para o optimizer AdamW.
  • Passe o optimizer para o Trainer.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())

# Pass the optimizer to Trainer
trainer = Trainer(model=model,
                  args=training_args,
                  train_dataset=train_dataset,
                  eval_dataset=validation_dataset,
                  ____=(____, None),
                  compute_metrics=compute_metrics)

trainer.train()
Editar e executar o código