Den 8-Bit-Adam-Optimierer einrichten
Du stellst fest, dass das Training deines Transformer-Modells für Echtzeit-Sprachübersetzungen mit Adafactor nicht effektiv ist. Als Alternative entscheidest du dich, einen 8-Bit-Adam-Optimierer auszuprobieren, um den Speicherplatz im Vergleich zu Adam um etwa 75% zu reduzieren.
Die Bibliothek bitsandbytes
wurde als bnb
importiert, TrainingArguments
wurde als args
definiert, und optimizer_grouped_parameters
wurde vorgeladen. Beachte, dass die Übung eine Warnmeldung über libbitsandbytes_cpu.so
ausgibt, aber du kannst diese Warnung ignorieren und die Übung beenden.
Diese Übung ist Teil des Kurses
Effizientes KI-Modelltraining mit PyTorch
Anleitung zur Übung
- Richte den 8-Bit-Adam-Optimierer aus der Bibliothek
bitsandbytes
ein. - Gib die Parameter beta1 und beta2 an den 8-Bit-Adam-Optimierer weiter.
- Gib den Parameter epilson an den 8-Bit-Adam-Optimierer weiter.
- Drucke die Eingabeparameter des 8-Bit-Adam-Optimierers aus.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Instantiate the 8-bit Adam optimizer
adam_bnb_optim = ____.____.____(optimizer_grouped_parameters,
# Pass in the beta1 and beta2 parameters
betas=(args.____, args.____),
# Pass in the epilson parameter
eps=args.____,
lr=args.learning_rate)
# Print the input parameters
print(f"beta1 = {args.____}")
print(f"beta2 = {args.____}")
print(f"epsilon = {args.____}")
print(f"learning_rate = {args.learning_rate}")