AdamW mit Trainer
Du beginnst damit, ein Transformer-Modell zu trainieren, um Sprachübersetzungen zu vereinfachen. In einem ersten Schritt entscheidest du dich für den AdamW-Optimierer als Benchmark und die Schnittstelle Trainer
für eine schnelle Einrichtung. Richte Trainer
ein, um die AdamW optimizer
zu verwenden.
AdamW
wurde von torch.optim
vorimportiert. Einige Trainingsobjekte sind bereits geladen: model
, training_args
, train_dataset
, validation_dataset
, compute_metrics
.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Übergib die
model
Parameter an dieAdamW
optimizer
. - Gib die
optimizer
anTrainer
weiter.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())
# Pass the optimizer to Trainer
trainer = Trainer(model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=validation_dataset,
____=(____, None),
compute_metrics=compute_metrics)
trainer.train()