Ein Modell für verteiltes Training vorbereiten
Du hast dich entschieden, die Hugging Face‑Bibliothek Accelerator zu verwenden, um dein Übersetzungsmodell zu trainieren. Jetzt ist es Zeit, dein Modell für verteiltes Training vorzubereiten!
Einige Daten wurden bereits geladen:
acceleratorist eine Instanz vonAcceleratormodel,optimizer,train_dataloaderundlr_schedulerwurden definiert
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Rufe eine Methode auf, um Objekte für verteiltes Training vorzubereiten.
- Übergib die Trainingsobjekte an die Methode, entsprechend der Reihenfolge der Ausgabe.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
# Pass in the training objects matching the order of the output
____,
____,
____,
____)