Müşteri hizmetleri için Llama'yı LoRA ile ince ayarlama
Müşteri hizmetleri sorularını yanıtlamak için bir dil modelini ince ayarlamakla görevlendirildin.
Llama modelleri soru yanıtlama konusunda oldukça iyidir ve bu müşteri hizmetleri görevi için iyi çalışmalıdır. Ne yazık ki, normal ince ayar yapacak hesaplama kapasiten yok ve bitext veri kümesini kullanarak LoRA ile ince ayar tekniklerini kullanmalısın.
Maykeye/TinyLLama-v0 modelini eğitebilmek istiyorsun. Eğitim betiği neredeyse tamam ve LoRA yapılandırma parametreleri dışında eğitim kodu sana zaten sağlandı.
İlgili model, belirteçleyici (tokenizer), veri kümesi ve eğitim argümanları sırasıyla model, tokenizer, dataset ve training_arguments içinde senin için önceden yüklendi.
Bu egzersiz
Llama 3 ile İnce Ayar (Fine-Tuning)
kursunun bir parçasıdırEgzersiz talimatları
- LoRA adaptörlerini derece 2 olacak şekilde ayarlamak için argümanı ekle.
- Ölçekleme katsayısını, derecenin iki katı olacak şekilde ayarla.
- Llama tarzı modellerle kullanılan görev türünü Lora yapılandırmanda ayarla.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
from peft import LoraConfig, get_peft_model
peft_config = LoraConfig(
# Set rank parameter
____=____,
# Set scaling factor
____=____,
# Set the type of task
____=____,
lora_dropout=0.05,
bias="none",
target_modules=['q_proj', 'v_proj']
)
trainer = SFTTrainer(
model=model,
train_dataset=dataset,
max_seq_length=250,
dataset_text_field='conversation',
tokenizer=tokenizer,
args=training_arguments,
peft_config=peft_config,
)
trainer.train()