Ajuster Llama pour la FAQ du service client
Vous travaillez dans une entreprise qui développe des chatbots de service client. Votre équipe utilise les modèles Llama dans votre bot de support, et vous souhaitez améliorer les performances en effectuant un fine-tuning sur un jeu de données de questions-réponses lié au service client. Pour obtenir les meilleures performances possibles, votre équipe va affiner un modèle Llama pour cette tâche en utilisant le jeu de données bitext.
Le script d’entraînement est presque complet ; il ne manque plus que l’étape finale où vous regroupez le modèle, le tokenizer, le jeu de données d’entraînement et les arguments d’entraînement, puis vous lancez l’apprentissage.
Cet exercice fait partie du cours
Ajustement fin avec Llama 3
Instructions
- Importez la classe qui permet d’effectuer un fine-tuning supervisé depuis sa bibliothèque.
- Instanciez la classe utilisée pour le fine-tuning supervisé en passant
model,tokenizer,datasetettraining_arguments. - Exécutez la méthode d’instance pour démarrer le fine-tuning de votre modèle.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Import the supervised fine-tuning class
from ____ import ____
# Instantiate fine-tuning class
trainer = ____(
# Pass necessary arguments
____=____,
____=____,
____=____,
____=____,
)
# Start training
trainer.____()