Preparar el entrenamiento en 8 bits
Querías empezar el fine-tuning con RLHF, pero te encontrabas continuamente con errores de falta de memoria. Para resolverlo, decidiste cambiar a precisión de 8 bits, lo que permite un fine-tuning más eficiente, aprovechando la biblioteca peft de Hugging Face.
Se han preimportado los siguientes elementos:
AutoModelForCausalLMdetransformersprepare_model_for_int8_trainingdepeftAutoModelForCausalLMWithValueHeaddetrl
Este ejercicio forma parte del curso
Reinforcement Learning from Human Feedback (RLHF)
Instrucciones del ejercicio
- Carga el modelo preentrenado e incluye el parámetro para la precisión de 8 bits.
- Usa la función
prepare_model_for_int8_trainingpara dejar el modelo listo para el fine-tuning basado en LoRA. - Carga el modelo con una value head para el entrenamiento con
PPO.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
model_name = "gpt2"
# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
model_name,
____=True
)
# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)
# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)