Bereite ein Modell für die verteilte Ausbildung vor
Du hast dich entschieden, die Bibliothek Hugging Face Accelerator
zu verwenden, um dein Sprachübersetzungsmodell zu trainieren. Jetzt ist es an der Zeit, dein Modell für das verteilte Training vorzubereiten!
Einige Daten wurden bereits geladen:
accelerator
ist eine Instanz vonAccelerator
model``optimizer
,train_dataloader
undlr_scheduler
definiert worden sind.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Rufe eine Methode auf, um Objekte für das verteilte Training vorzubereiten.
- Gib die Trainingsobjekte in der Reihenfolge der Ausgabe an die Methode weiter.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
# Pass in the training objects matching the order of the output
____,
____,
____,
____)