LoslegenKostenlos loslegen

Adafactor mit Trainer

Du trainierst ein Transformer-Modell mit Milliarden von Parametern für deinen Übersetzungsdienst. Das belastet deine Rechenressourcen, daher probierst du den Optimierer Adafactor aus, um den Speicherbedarf gegenüber AdamW zu reduzieren. Bereite den Trainer für Adafactor vor!

Einige Trainingsobjekte wurden bereits geladen, darunter model, train_dataset, validation_dataset und compute_metrics.

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Gib Adafactor als Optimierer in TrainingArguments an.
  • Übergib den Optimizer-Status, um die Größe auszugeben.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Specify Adafactor as an optimizer
training_args = TrainingArguments(output_dir="./results",
                                  evaluation_strategy="epoch",
                                  ____="____")

trainer = Trainer(model=model,
                  args=training_args,
                  train_dataset=train_dataset,
                  eval_dataset=validation_dataset,
                  compute_metrics=compute_metrics)
trainer.train()

# Pass in the optimizer state
total_size_megabytes, total_num_elements = compute_optimizer_size(____.____.____.values())
print(f"\nNumber of optimizer parameters: {total_num_elements:,}\nOptimizer size: {total_size_megabytes:.0f} MB")  
Code bearbeiten und ausführen