Steigungsakkumulation mit Trainer
Du richtest Trainer
für dein Sprachübersetzungsmodell ein, um Gradientenakkumulation zu verwenden, damit du effektiv auf größeren Stapeln trainieren kannst. Dein Modell wird die Übersetzungen vereinfachen, indem es mit Umschreibungen aus dem MRPC-Datensatz trainiert wird. Konfiguriere die Trainingsargumente, um Gradienten zu akkumulieren! Die Übung wird mit dem Aufruf von trainer.train()
einige Zeit in Anspruch nehmen.
Die Funktionen model
, dataset
und compute_metrics()
sind vordefiniert.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Setze die Anzahl der Gradientenakkumulationsschritte auf zwei.
- Gib die Trainingsargumente an
Trainer
weiter.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
training_args = TrainingArguments(
output_dir="./results",
evaluation_strategy="epoch",
# Set the number of gradient accumulation steps to two
____=____
)
trainer = Trainer(
model=model,
# Pass in the training arguments to Trainer
____=____,
train_dataset=dataset["train"],
eval_dataset=dataset["validation"],
compute_metrics=compute_metrics,
)
trainer.train()