LoslegenKostenlos loslegen

AdamW mit Trainer

Du beginnst damit, ein Transformer-Modell zu trainieren, um Sprachübersetzungen zu vereinfachen. In einem ersten Schritt entscheidest du dich für den AdamW-Optimierer als Benchmark und die Schnittstelle Trainer für eine schnelle Einrichtung. Richte Trainer ein, um die AdamW optimizer zu verwenden.

AdamW wurde von torch.optim vorimportiert. Einige Trainingsobjekte sind bereits geladen: model, training_args, train_dataset, validation_dataset, compute_metrics.

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Übergib die model Parameter an die AdamW optimizer.
  • Gib die optimizer an Trainer weiter.

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())

# Pass the optimizer to Trainer
trainer = Trainer(model=model,
                  args=training_args,
                  train_dataset=train_dataset,
                  eval_dataset=validation_dataset,
                  ____=(____, None),
                  compute_metrics=compute_metrics)

trainer.train()
Code bearbeiten und ausführen