AdamW com o Trainer
Você está começando a treinar um modelo Transformer para simplificar as traduções de idiomas. Como primeira etapa, você decide usar o otimizador AdamW como referência e a interface Trainer para uma configuração rápida. Configure o site Trainer para usar o AdamW optimizer.
AdamW foi pré-importado de torch.optim. Alguns objetos de treinamento foram pré-carregados: model, training_args, train_dataset, validation_dataset, compute_metrics.
Este exercício faz parte do curso
Treinamento eficiente de modelos de IA com PyTorch
Instruções do exercício
- Passe os parâmetros de
modelparaAdamWoptimizer. - Passe o endereço
optimizerparaTrainer.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())
# Pass the optimizer to Trainer
trainer = Trainer(model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=validation_dataset,
____=(____, None),
compute_metrics=compute_metrics)
trainer.train()