IniziaInizia gratis

Preparazione al training a 8 bit

Volevi iniziare il fine-tuning RLHF, ma continuavi a incontrare errori di memoria insufficiente. Per risolvere, hai deciso di passare alla precisione a 8 bit, che consente un fine-tuning più efficiente, sfruttando la libreria peft di Hugging Face.

Sono già stati importati:

  • AutoModelForCausalLM da transformers
  • prepare_model_for_int8_training da peft
  • AutoModelForCausalLMWithValueHead da trl

Questo esercizio fa parte del corso

Reinforcement Learning from Human Feedback (RLHF)

Visualizza il corso

Istruzioni dell'esercizio

  • Carica il modello pre-addestrato e assicurati di includere il parametro per la precisione a 8 bit.
  • Usa la funzione prepare_model_for_int8_training per preparare il modello al fine-tuning basato su LoRA.
  • Carica il modello con una value head per il training con PPO.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

model_name = "gpt2"  

# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
                                                       model_name, 
                                                       ____=True
                                                      )

# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)

# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)
Modifica ed esegui il codice