Adafactor mit Trainer
Du trainierst ein Transformer-Modell mit Milliarden von Parametern für deinen Übersetzungsdienst. Das belastet deine Rechenressourcen, daher probierst du den Optimierer Adafactor aus, um den Speicherbedarf gegenüber AdamW zu reduzieren. Bereite den Trainer für Adafactor vor!
Einige Trainingsobjekte wurden bereits geladen, darunter model, train_dataset, validation_dataset und compute_metrics.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Gib
Adafactorals Optimierer inTrainingArgumentsan. - Übergib den Optimizer-Status, um die Größe auszugeben.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Specify Adafactor as an optimizer
training_args = TrainingArguments(output_dir="./results",
evaluation_strategy="epoch",
____="____")
trainer = Trainer(model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=validation_dataset,
compute_metrics=compute_metrics)
trainer.train()
# Pass in the optimizer state
total_size_megabytes, total_num_elements = compute_optimizer_size(____.____.____.values())
print(f"\nNumber of optimizer parameters: {total_num_elements:,}\nOptimizer size: {total_size_megabytes:.0f} MB")