BaşlayınÜcretsiz Başlayın

8-bit Eğitime Hazırlık

RLHF ile ince ayara başlamak istedin ama sürekli bellek yetersizliği hataları aldın. Bunu çözmek için, Hugging Face peft kütüphanesinden yararlanarak 8-bit hassasiyete geçmeye karar verdin; bu sayede ince ayar daha verimli yapılabilir.

Aşağıdakiler önceden içe aktarıldı:

  • transformers içinden AutoModelForCausalLM
  • peft içinden prepare_model_for_int8_training
  • trl içinden AutoModelForCausalLMWithValueHead

Bu egzersiz

İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (RLHF)

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • Önceden eğitilmiş modeli yükle ve 8-bit hassasiyet için gereken parametreyi eklediğinden emin ol.
  • Modeli LoRA tabanlı ince ayara hazır hale getirmek için prepare_model_for_int8_training fonksiyonunu kullan.
  • PPO eğitimi için değer başlığına (value head) sahip modeli yükle.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

model_name = "gpt2"  

# Load the model in 8-bit precision
pretrained_model = AutoModelForCausalLM.from_pretrained(
                                                       model_name, 
                                                       ____=True
                                                      )

# Prepare the model for fine-tuning
pretrained_model_8bit = ____(pretrained_model)

# Load the model with a value head
model = ____.from_pretrained(pretrained_model_8bit)
Kodu Düzenle ve Çalıştır