ComenzarEmpieza gratis

Preparar el entrenamiento en 8 bits

Querías empezar el fine-tuning con RLHF, pero te encontrabas continuamente con errores de falta de memoria. Para resolverlo, decidiste cambiar a precisión de 8 bits, lo que permite un fine-tuning más eficiente, aprovechando la biblioteca peft de Hugging Face.

Se han preimportado los siguientes elementos:

  • AutoModelForCausalLM de transformers
  • prepare_model_for_int8_training de peft
  • AutoModelForCausalLMWithValueHead de trl

Este ejercicio forma parte del curso

Reinforcement Learning from Human Feedback (RLHF)

Ver curso

Instrucciones del ejercicio

  • Carga el modelo preentrenado e incluye el parámetro para la precisión de 8 bits.
  • Usa la función prepare_model_for_int8_training para dejar el modelo listo para el fine-tuning basado en LoRA.
  • Carga el modelo con una value head para el entrenamiento con PPO.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

model_name = "gpt2"  

# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
                                                       model_name, 
                                                       ____=True
                                                      )

# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)

# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)
Editar y ejecutar código