BaşlayınÜcretsiz Başlayın

LoRA ile eğit

RLHF ile ince ayara başlamak istedin ama sürekli bellek yetersizliği hataları aldın. Modeli 8-bit duyarlılıkla yüklemeye geçmene rağmen hata devam etti. Bunu çözmek için bir sonraki adıma geçip daha verimli ince ayar için LoRA uygulamaya karar verdin.

Aşağıdakiler önceden içe aktarıldı:

  • 8-bit duyarlılıkla yüklenmiş model: pretrained_model_8bit
  • peft içinden LoraConfig ve get_peft_model
  • trl içinden AutoModelForCausalLMWithValueHead

Bu egzersiz

İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (RLHF)

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • LoRA dropout değerini 0.1 yap ve bias türünü yalnızca lora olacak şekilde ayarla.
  • LoRA yapılandırmasını modele ekle.
  • PPO eğitimi için modeli value head ile kur.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

# Set the configuration parameters
config = LoraConfig(
    r=32,  
    lora_alpha=32,  
    lora_dropout=____,  
    bias=____)  

# Apply the LoRA configuration to the 8-bit model
lora_model = get_peft_model(pretrained_model_8bit, ____)
# Set up the tokenizer and model with a value head for PPO training
model = ____.from_pretrained(____)
Kodu Düzenle ve Çalıştır