Siapkan untuk Pelatihan 8-bit
Anda ingin memulai fine-tuning RLHF, tetapi terus mengalami error kehabisan memori. Untuk mengatasinya, Anda memutuskan beralih ke presisi 8-bit, yang memungkinkan fine-tuning lebih efisien, dengan memanfaatkan pustaka Hugging Face peft.
Berikut ini sudah diimpor sebelumnya:
AutoModelForCausalLMdaritransformersprepare_model_for_int8_trainingdaripeftAutoModelForCausalLMWithValueHeaddaritrl
Latihan ini adalah bagian dari kursus
Reinforcement Learning from Human Feedback (RLHF)
Petunjuk latihan
- Muat model pra-latih dan pastikan menyertakan parameter untuk presisi 8-bit.
- Gunakan fungsi
prepare_model_for_int8_traininguntuk menyiapkan model agar siap untuk fine-tuning berbasis LoRA. - Muat model dengan value head untuk pelatihan
PPO.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
model_name = "gpt2"
# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
model_name,
____=True
)
# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)
# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)