Preparazione al training a 8 bit
Volevi iniziare il fine-tuning RLHF, ma continuavi a incontrare errori di memoria insufficiente. Per risolvere, hai deciso di passare alla precisione a 8 bit, che consente un fine-tuning più efficiente, sfruttando la libreria peft di Hugging Face.
Sono già stati importati:
AutoModelForCausalLMdatransformersprepare_model_for_int8_trainingdapeftAutoModelForCausalLMWithValueHeaddatrl
Questo esercizio fa parte del corso
Reinforcement Learning from Human Feedback (RLHF)
Istruzioni dell'esercizio
- Carica il modello pre-addestrato e assicurati di includere il parametro per la precisione a 8 bit.
- Usa la funzione
prepare_model_for_int8_trainingper preparare il modello al fine-tuning basato su LoRA. - Carica il modello con una value head per il training con
PPO.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
model_name = "gpt2"
# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
model_name,
____=True
)
# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)
# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)