LoslegenKostenlos loslegen

Bereite ein Modell für die verteilte Ausbildung vor

Du hast dich entschieden, die Bibliothek Hugging Face Accelerator zu verwenden, um dein Sprachübersetzungsmodell zu trainieren. Jetzt ist es an der Zeit, dein Modell für das verteilte Training vorzubereiten!

Einige Daten wurden bereits geladen:

  • accelerator ist eine Instanz von Accelerator
  • model``optimizer, train_dataloader und lr_scheduler definiert worden sind.

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Rufe eine Methode auf, um Objekte für das verteilte Training vorzubereiten.
  • Gib die Trainingsobjekte in der Reihenfolge der Ausgabe an die Methode weiter.

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
    # Pass in the training objects matching the order of the output
    ____,
    ____,
    ____,
    ____)
Code bearbeiten und ausführen