8-bit Eğitime Hazırlık
RLHF ile ince ayara başlamak istedin ama sürekli bellek yetersizliği hataları aldın. Bunu çözmek için, Hugging Face peft kütüphanesinden yararlanarak 8-bit hassasiyete geçmeye karar verdin; bu sayede ince ayar daha verimli yapılabilir.
Aşağıdakiler önceden içe aktarıldı:
transformersiçindenAutoModelForCausalLMpeftiçindenprepare_model_for_int8_trainingtrliçindenAutoModelForCausalLMWithValueHead
Bu egzersiz
İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (RLHF)
kursunun bir parçasıdırEgzersiz talimatları
- Önceden eğitilmiş modeli yükle ve 8-bit hassasiyet için gereken parametreyi eklediğinden emin ol.
- Modeli LoRA tabanlı ince ayara hazır hale getirmek için
prepare_model_for_int8_trainingfonksiyonunu kullan. PPOeğitimi için değer başlığına (value head) sahip modeli yükle.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
model_name = "gpt2"
# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
model_name,
____=True
)
# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)
# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)