Voorbereiden op 8-bit-training
Je wilde beginnen met RLHF-fine-tuning, maar je liep steeds tegen out-of-memory-fouten aan. Om dit op te lossen, besloot je over te schakelen naar 8-bit-precisie, wat efficiënter fine-tunen mogelijk maakt, met behulp van de Hugging Face-peft-bibliotheek.
Het volgende is al geïmporteerd:
AutoModelForCausalLMuittransformersprepare_model_for_int8_traininguitpeftAutoModelForCausalLMWithValueHeaduittrl
Deze oefening maakt deel uit van de cursus
Reinforcement Learning from Human Feedback (RLHF)
Oefeninstructies
- Laad het voorgetrainde model en zorg dat je de parameter voor 8-bit-precisie meegeeft.
- Gebruik de functie
prepare_model_for_int8_trainingom het model klaar te maken voor LoRA-gebaseerde fine-tuning. - Laad het model met een value head voor
PPO-training.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
model_name = "gpt2"
# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
model_name,
____=True
)
# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)
# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)