CommencerCommencer gratuitement

Orienter les réponses du support client

Vous travaillez pour une entreprise d’e-commerce et vous intégrez Llama à un assistant de support client. L’assistant répond aux questions fréquentes, mais vous avez remarqué que les réponses sont trop répétitives.

Vous devez ajuster les paramètres de décodage pour encourager un vocabulaire plus varié tout en gardant des réponses informatives.

Le modèle est déjà instancié avec llama_cpp et stocké dans llm.

Cet exercice fait partie du cours

Travailler avec Llama 3

Afficher le cours

Instructions

  • Définissez le paramètre temperature afin que les réponses soient moins répétitives et plus dynamiques.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

output = llm(
		"Can I exchange an item I purchased?", 
  		# Set the temperature parameter to provide more varied responses
		temperature=____,
        max_tokens=15
) 

print(output['choices'][0]['text'])
Modifier et exécuter le code