LoRA adapter'larını kullanma
Müşterilerin basit sorularını otomatik olarak çözen müşteri hizmetleri chatbot'ları sunan bir start-up'ta çalışıyorsun.
bitext veri kümesini kullanarak müşteri hizmetleri sorularını yanıtlaması için Maykeye/TinyLLama-v0 dil modelini ince ayar (fine-tune) yapmakla görevlendirildin. Bu model, ekibinin sunduğu bir chatbot'ta kullanılacak. Eğitim betiği neredeyse hazır, ancak LoRA'yı ince ayara entegre etmek istiyorsun; çünkü daha verimli ve dağıtımlar sırasında ekibinin eğitim hattının daha hızlı tamamlanmasını sağlayacak.
İlgili model, belirteçleyici (tokenizer), veri kümesi ve eğitim argümanları sırasıyla model, tokenizer, dataset ve training_arguments içinde senin için önceden yüklendi.
Bu egzersiz
Llama 3 ile İnce Ayar (Fine-Tuning)
kursunun bir parçasıdırEgzersiz talimatları
- İlgili kütüphaneden LoRA yapılandırmasını içe aktar.
- Varsayılanları kullanarak LoRA yapılandırma parametrelerini
lora_configile başlat. - LoRA parametrelerini SFTTrainer'a entegre et.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
# Import LoRA configuration class
from ____ import ____
# Instantiate LoRA configuration with values
lora_config = ____(
r=12,
lora_alpha=8,
task_type="CAUSAL_LM",
lora_dropout=0.05,
bias="none",
target_modules=['q_proj', 'v_proj']
)
trainer = SFTTrainer(
model=model,
train_dataset=dataset,
tokenizer=tokenizer,
args=training_arguments,
# Pass the lora_config to trainer
____,
)