Gradient Checkpointing mit Trainer
Du möchtest Gradient Checkpointing verwenden, um den Speicherbedarf deines Modells zu reduzieren. Du hast gesehen, wie du die explizite Trainingsschleife mit Accelerator schreibst, und möchtest nun mit Trainer eine vereinfachte Schnittstelle ohne Trainingsschleifen verwenden. Die Übung wird mit dem Aufruf von trainer.train() einige Zeit in Anspruch nehmen.
Richte die Argumente für Trainer ein, um Gradient Checkpointing zu verwenden.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Verwende vier Stufen der Gradientenakkumulation in
TrainingArguments. - Aktiviere das Checkpointing für Steigungen in
TrainingArguments. - Gib die Trainingsargumente an
Trainerweiter.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
training_args = TrainingArguments(output_dir="./results",
evaluation_strategy="epoch",
# Use four gradient accumulation steps
gradient_accumulation_steps=____,
# Enable gradient checkpointing
____=____)
trainer = Trainer(model=model,
# Pass in the training arguments
____=____,
train_dataset=dataset["train"],
eval_dataset=dataset["validation"],
compute_metrics=compute_metrics)
trainer.train()