LoslegenKostenlos loslegen

Steigungsakkumulation mit Trainer

Du richtest Trainer für dein Sprachübersetzungsmodell ein, um Gradientenakkumulation zu verwenden, damit du effektiv auf größeren Stapeln trainieren kannst. Dein Modell wird die Übersetzungen vereinfachen, indem es mit Umschreibungen aus dem MRPC-Datensatz trainiert wird. Konfiguriere die Trainingsargumente, um Gradienten zu akkumulieren! Die Übung wird mit dem Aufruf von trainer.train() einige Zeit in Anspruch nehmen.

Die Funktionen model, dataset und compute_metrics() sind vordefiniert.

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Setze die Anzahl der Gradientenakkumulationsschritte auf zwei.
  • Gib die Trainingsargumente an Trainer weiter.

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

training_args = TrainingArguments(
    output_dir="./results",
    evaluation_strategy="epoch",
    # Set the number of gradient accumulation steps to two
    ____=____
)
trainer = Trainer(
    model=model,
    # Pass in the training arguments to Trainer
    ____=____,
    train_dataset=dataset["train"],
    eval_dataset=dataset["validation"],
    compute_metrics=compute_metrics,
)
trainer.train()
Code bearbeiten und ausführen