Orienter les réponses du support client
Vous travaillez pour une entreprise d’e-commerce et vous intégrez Llama à un assistant de support client. L’assistant répond aux questions fréquentes, mais vous avez remarqué que les réponses sont trop répétitives.
Vous devez ajuster les paramètres de décodage pour encourager un vocabulaire plus varié tout en gardant des réponses informatives.
Le modèle est déjà instancié avec llama_cpp et stocké dans llm.
Cet exercice fait partie du cours
Travailler avec Llama 3
Instructions
- Définissez le paramètre
temperatureafin que les réponses soient moins répétitives et plus dynamiques.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
output = llm(
"Can I exchange an item I purchased?",
# Set the temperature parameter to provide more varied responses
temperature=____,
max_tokens=15
)
print(output['choices'][0]['text'])