BaşlayınÜcretsiz Başlayın

Müşteri hizmetleri için Llama'yı LoRA ile ince ayarlama

Müşteri hizmetleri sorularını yanıtlamak için bir dil modelini ince ayarlamakla görevlendirildin. Llama modelleri soru yanıtlama konusunda oldukça iyidir ve bu müşteri hizmetleri görevi için iyi çalışmalıdır. Ne yazık ki, normal ince ayar yapacak hesaplama kapasiten yok ve bitext veri kümesini kullanarak LoRA ile ince ayar tekniklerini kullanmalısın.

Maykeye/TinyLLama-v0 modelini eğitebilmek istiyorsun. Eğitim betiği neredeyse tamam ve LoRA yapılandırma parametreleri dışında eğitim kodu sana zaten sağlandı.

İlgili model, belirteçleyici (tokenizer), veri kümesi ve eğitim argümanları sırasıyla model, tokenizer, dataset ve training_arguments içinde senin için önceden yüklendi.

Bu egzersiz

Llama 3 ile İnce Ayar (Fine-Tuning)

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • LoRA adaptörlerini derece 2 olacak şekilde ayarlamak için argümanı ekle.
  • Ölçekleme katsayısını, derecenin iki katı olacak şekilde ayarla.
  • Llama tarzı modellerle kullanılan görev türünü Lora yapılandırmanda ayarla.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

from peft import LoraConfig, get_peft_model

peft_config = LoraConfig(
    # Set rank parameter 
  	____=____,
  	# Set scaling factor
    ____=____,
  	# Set the type of task
  	____=____,
    lora_dropout=0.05,
    bias="none",
    target_modules=['q_proj', 'v_proj']
)

trainer = SFTTrainer(
    model=model,
    train_dataset=dataset,
    max_seq_length=250,
    dataset_text_field='conversation',
    tokenizer=tokenizer,
    args=training_arguments,
  	peft_config=peft_config,
)

trainer.train()
Kodu Düzenle ve Çalıştır