BaşlayınÜcretsiz Başlayın

LoRA adapter'larını kullanma

Müşterilerin basit sorularını otomatik olarak çözen müşteri hizmetleri chatbot'ları sunan bir start-up'ta çalışıyorsun.

bitext veri kümesini kullanarak müşteri hizmetleri sorularını yanıtlaması için Maykeye/TinyLLama-v0 dil modelini ince ayar (fine-tune) yapmakla görevlendirildin. Bu model, ekibinin sunduğu bir chatbot'ta kullanılacak. Eğitim betiği neredeyse hazır, ancak LoRA'yı ince ayara entegre etmek istiyorsun; çünkü daha verimli ve dağıtımlar sırasında ekibinin eğitim hattının daha hızlı tamamlanmasını sağlayacak.

İlgili model, belirteçleyici (tokenizer), veri kümesi ve eğitim argümanları sırasıyla model, tokenizer, dataset ve training_arguments içinde senin için önceden yüklendi.

Bu egzersiz

Llama 3 ile İnce Ayar (Fine-Tuning)

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • İlgili kütüphaneden LoRA yapılandırmasını içe aktar.
  • Varsayılanları kullanarak LoRA yapılandırma parametrelerini lora_config ile başlat.
  • LoRA parametrelerini SFTTrainer'a entegre et.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

# Import LoRA configuration class
from ____ import ____

# Instantiate LoRA configuration with values
lora_config = ____(
  	r=12,
    lora_alpha=8,
  	task_type="CAUSAL_LM",
    lora_dropout=0.05,
    bias="none",
    target_modules=['q_proj', 'v_proj']
)

trainer = SFTTrainer(
    model=model,
    train_dataset=dataset,
    tokenizer=tokenizer,
    args=training_arguments,
  	# Pass the lora_config to trainer
  	____,
)
Kodu Düzenle ve Çalıştır