AdamW avec Trainer
Vous commencez à former un modèle Transformer pour simplifier les traductions linguistiques. Dans un premier temps, vous décidez d'utiliser l'optimiseur AdamW comme référence et l'interface Trainer
pour une configuration rapide. Configurez Trainer
pour utiliser l'AdamW optimizer
.
AdamW
a été préimporté à partir de torch.optim
. Certains objets de formation ont été préchargés : model
, training_args
, train_dataset
, validation_dataset
, compute_metrics
.
Cet exercice fait partie du cours
Entraînement efficace de modèles d'IA avec PyTorch
Instructions
- Transmettez les paramètres de
model
àAdamW
optimizer
. - Passez le
optimizer
àTrainer
.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())
# Pass the optimizer to Trainer
trainer = Trainer(model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=validation_dataset,
____=(____, None),
compute_metrics=compute_metrics)
trainer.train()