LoslegenKostenlos loslegen

Für 8-Bit-Training vorbereiten

Du wolltest mit dem RLHF-Finetuning starten, bist aber ständig auf Out-of-Memory-Fehler gestoßen. Um das zu lösen, hast du dich entschieden, auf 8-Bit-Präzision umzusteigen. So kannst du mithilfe der Hugging Face-peft-Bibliothek effizienter feinabstimmen.

Folgendes wurde bereits importiert:

  • AutoModelForCausalLM aus transformers
  • prepare_model_for_int8_training aus peft
  • AutoModelForCausalLMWithValueHead aus trl

Diese Übung ist Teil des Kurses

Reinforcement Learning aus menschlichem Feedback (RLHF)

Kurs anzeigen

Anleitung zur Übung

  • Lade das vortrainierte Modell und achte darauf, den Parameter für 8-Bit-Präzision mitzugeben.
  • Verwende die Funktion prepare_model_for_int8_training, um das Modell für LoRA-basiertes Finetuning vorzubereiten.
  • Lade das Modell mit einem Value Head für das PPO-Training.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

model_name = "gpt2"  

# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
                                                       model_name, 
                                                       ____=True
                                                      )

# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)

# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)
Code bearbeiten und ausführen