Für 8-Bit-Training vorbereiten
Du wolltest mit dem RLHF-Finetuning starten, bist aber ständig auf Out-of-Memory-Fehler gestoßen. Um das zu lösen, hast du dich entschieden, auf 8-Bit-Präzision umzusteigen. So kannst du mithilfe der Hugging Face-peft-Bibliothek effizienter feinabstimmen.
Folgendes wurde bereits importiert:
AutoModelForCausalLMaustransformersprepare_model_for_int8_trainingauspeftAutoModelForCausalLMWithValueHeadaustrl
Diese Übung ist Teil des Kurses
Reinforcement Learning aus menschlichem Feedback (RLHF)
Anleitung zur Übung
- Lade das vortrainierte Modell und achte darauf, den Parameter für 8-Bit-Präzision mitzugeben.
- Verwende die Funktion
prepare_model_for_int8_training, um das Modell für LoRA-basiertes Finetuning vorzubereiten. - Lade das Modell mit einem Value Head für das
PPO-Training.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
model_name = "gpt2"
# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
model_name,
____=True
)
# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)
# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)