MulaiMulai sekarang secara gratis

Siapkan untuk Pelatihan 8-bit

Anda ingin memulai fine-tuning RLHF, tetapi terus mengalami error kehabisan memori. Untuk mengatasinya, Anda memutuskan beralih ke presisi 8-bit, yang memungkinkan fine-tuning lebih efisien, dengan memanfaatkan pustaka Hugging Face peft.

Berikut ini sudah diimpor sebelumnya:

  • AutoModelForCausalLM dari transformers
  • prepare_model_for_int8_training dari peft
  • AutoModelForCausalLMWithValueHead dari trl

Latihan ini adalah bagian dari kursus

Reinforcement Learning from Human Feedback (RLHF)

Lihat Kursus

Petunjuk latihan

  • Muat model pra-latih dan pastikan menyertakan parameter untuk presisi 8-bit.
  • Gunakan fungsi prepare_model_for_int8_training untuk menyiapkan model agar siap untuk fine-tuning berbasis LoRA.
  • Muat model dengan value head untuk pelatihan PPO.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

model_name = "gpt2"  

# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
                                                       model_name, 
                                                       ____=True
                                                      )

# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)

# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)
Edit dan Jalankan Kode