CommencerCommencer gratuitement

Préparer l’entraînement en 8 bits

Vous souhaitez lancer un affinement RLHF, mais vous rencontrez des erreurs de dépassement de mémoire. Pour y remédier, vous décidez de passer en précision 8 bits, ce qui permet un affinement plus efficace, en tirant parti de la bibliothèque Hugging Face peft.

Les éléments suivants ont été préimportés :

  • AutoModelForCausalLM depuis transformers
  • prepare_model_for_int8_training depuis peft
  • AutoModelForCausalLMWithValueHead depuis trl

Cet exercice fait partie du cours

Reinforcement Learning from Human Feedback (RLHF)

Afficher le cours

Instructions

  • Chargez le modèle préentraîné et veillez à inclure le paramètre pour la précision 8 bits.
  • Utilisez la fonction prepare_model_for_int8_training pour préparer le modèle à un affinement basé sur LoRA.
  • Chargez le modèle avec une value head pour l’entraînement PPO.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

model_name = "gpt2"  

# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
                                                       model_name, 
                                                       ____=True
                                                      )

# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)

# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)
Modifier et exécuter le code