LoslegenKostenlos loslegen

Gradient Checkpointing mit Trainer

Du möchtest Gradient Checkpointing verwenden, um den Speicherbedarf deines Modells zu reduzieren. Du hast gesehen, wie du die explizite Trainingsschleife mit Accelerator schreibst, und möchtest nun mit Trainer eine vereinfachte Schnittstelle ohne Trainingsschleifen verwenden. Die Übung wird mit dem Aufruf von trainer.train() einige Zeit in Anspruch nehmen.

Richte die Argumente für Trainer ein, um Gradient Checkpointing zu verwenden.

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Verwende vier Stufen der Gradientenakkumulation in TrainingArguments.
  • Aktiviere das Checkpointing für Steigungen in TrainingArguments.
  • Gib die Trainingsargumente an Trainer weiter.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

training_args = TrainingArguments(output_dir="./results",
                                  evaluation_strategy="epoch",
                                  # Use four gradient accumulation steps
                                  gradient_accumulation_steps=____,
                                  # Enable gradient checkpointing
                                  ____=____)
trainer = Trainer(model=model,
                  # Pass in the training arguments
                  ____=____,
                  train_dataset=dataset["train"],
                  eval_dataset=dataset["validation"],
                  compute_metrics=compute_metrics)
trainer.train()
Code bearbeiten und ausführen