Bereite ein Modell für die verteilte Ausbildung vor
Du hast dich entschieden, die Bibliothek Hugging Face Accelerator zu verwenden, um dein Sprachübersetzungsmodell zu trainieren. Jetzt ist es an der Zeit, dein Modell für das verteilte Training vorzubereiten!
Einige Daten wurden bereits geladen:
acceleratorist eine Instanz vonAcceleratormodel``optimizer,train_dataloaderundlr_schedulerdefiniert worden sind.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Rufe eine Methode auf, um Objekte für das verteilte Training vorzubereiten.
- Gib die Trainingsobjekte in der Reihenfolge der Ausgabe an die Methode weiter.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
# Pass in the training objects matching the order of the output
____,
____,
____,
____)