Préparer l’entraînement en 8 bits
Vous souhaitez lancer un affinement RLHF, mais vous rencontrez des erreurs de dépassement de mémoire. Pour y remédier, vous décidez de passer en précision 8 bits, ce qui permet un affinement plus efficace, en tirant parti de la bibliothèque Hugging Face peft.
Les éléments suivants ont été préimportés :
AutoModelForCausalLMdepuistransformersprepare_model_for_int8_trainingdepuispeftAutoModelForCausalLMWithValueHeaddepuistrl
Cet exercice fait partie du cours
Reinforcement Learning from Human Feedback (RLHF)
Instructions
- Chargez le modèle préentraîné et veillez à inclure le paramètre pour la précision 8 bits.
- Utilisez la fonction
prepare_model_for_int8_trainingpour préparer le modèle à un affinement basé sur LoRA. - Chargez le modèle avec une value head pour l’entraînement
PPO.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
model_name = "gpt2"
# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
model_name,
____=True
)
# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)
# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)