Aan de slagGa gratis aan de slag

Voorbereiden op 8-bit-training

Je wilde beginnen met RLHF-fine-tuning, maar je liep steeds tegen out-of-memory-fouten aan. Om dit op te lossen, besloot je over te schakelen naar 8-bit-precisie, wat efficiënter fine-tunen mogelijk maakt, met behulp van de Hugging Face-peft-bibliotheek.

Het volgende is al geïmporteerd:

  • AutoModelForCausalLM uit transformers
  • prepare_model_for_int8_training uit peft
  • AutoModelForCausalLMWithValueHead uit trl

Deze oefening maakt deel uit van de cursus

Reinforcement Learning from Human Feedback (RLHF)

Cursus bekijken

Oefeninstructies

  • Laad het voorgetrainde model en zorg dat je de parameter voor 8-bit-precisie meegeeft.
  • Gebruik de functie prepare_model_for_int8_training om het model klaar te maken voor LoRA-gebaseerde fine-tuning.
  • Laad het model met een value head voor PPO-training.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

model_name = "gpt2"  

# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
                                                       model_name, 
                                                       ____=True
                                                      )

# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)

# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)
Code bewerken en uitvoeren