LoslegenKostenlos loslegen

Den 8-Bit-Adam-Optimierer einrichten

Du stellst fest, dass das Training deines Transformer-Modells für Echtzeit-Sprachübersetzungen mit Adafactor nicht effektiv ist. Als Alternative entscheidest du dich, einen 8-Bit-Adam-Optimierer auszuprobieren, um den Speicherplatz im Vergleich zu Adam um etwa 75% zu reduzieren.

Die Bibliothek bitsandbytes wurde als bnb importiert, TrainingArguments wurde als args definiert, und optimizer_grouped_parameters wurde vorgeladen. Beachte, dass die Übung eine Warnmeldung über libbitsandbytes_cpu.so ausgibt, aber du kannst diese Warnung ignorieren und die Übung beenden.

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Richte den 8-Bit-Adam-Optimierer aus der Bibliothek bitsandbytes ein.
  • Gib die Parameter beta1 und beta2 an den 8-Bit-Adam-Optimierer weiter.
  • Gib den Parameter epilson an den 8-Bit-Adam-Optimierer weiter.
  • Drucke die Eingabeparameter des 8-Bit-Adam-Optimierers aus.

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

# Instantiate the 8-bit Adam optimizer
adam_bnb_optim = ____.____.____(optimizer_grouped_parameters,
                                # Pass in the beta1 and beta2 parameters
                                betas=(args.____, args.____),
                                # Pass in the epilson parameter
                                eps=args.____,
                                lr=args.learning_rate)

# Print the input parameters
print(f"beta1 = {args.____}")
print(f"beta2 = {args.____}")
print(f"epsilon = {args.____}")
print(f"learning_rate = {args.learning_rate}")
Code bearbeiten und ausführen