CommencerCommencer gratuitement

Messages système

Vos précédents messages vous ont donné une réponse valide, mais ils permettent aussi aux utilisateurs de poser n’importe quelle question, même si elle n’a aucun lien avec l’assistance pour un service internet. Dans cet exercice, vous allez utiliser un message système pour orienter le modèle afin qu’il ne réponde qu’aux questions des clients concernant leur service internet.

Le modèle Llama est toujours disponible sous llm.

Cet exercice fait partie du cours

Travailler avec Llama 3

Afficher le cours

Instructions

  • Ajoutez le rôle "system" au dictionnaire de message fourni à la liste conv.
  • Extrayez la réponse du modèle "message" depuis l’objet result.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Add a system message to the conversation list
conv = [
	{
        "role": "____",
        "content": "You are a helpful and professional customer support assistant for an internet service provider. If the question or instruction doesn't relate to internet service, quote the response: 'Sorry, I can't answer that.'"},
	{
        "role": "user",
	    "content": "Help me decide which stocks to invest in."
    }
]

result = llm.create_chat_completion(messages=conv, max_tokens=15)
# Extract the model response from the result object
assistant_content = result["choices"][0]["____"]["content"]
print(assistant_content)
Modifier et exécuter le code