LoslegenKostenlos loslegen

Ein Modell für verteiltes Training vorbereiten

Du hast dich entschieden, die Hugging Face‑Bibliothek Accelerator zu verwenden, um dein Übersetzungsmodell zu trainieren. Jetzt ist es Zeit, dein Modell für verteiltes Training vorzubereiten!

Einige Daten wurden bereits geladen:

  • accelerator ist eine Instanz von Accelerator
  • model, optimizer, train_dataloader und lr_scheduler wurden definiert

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Rufe eine Methode auf, um Objekte für verteiltes Training vorzubereiten.
  • Übergib die Trainingsobjekte an die Methode, entsprechend der Reihenfolge der Ausgabe.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
    # Pass in the training objects matching the order of the output
    ____,
    ____,
    ____,
    ____)
Code bearbeiten und ausführen