Systeemberichten
Je vorige berichten leverden een geldig antwoord op, maar ze laten gebruikers ook toe om elke vraag te stellen die ze willen, zelfs als die niets te maken heeft met ondersteuning voor internetdiensten. In deze oefening gebruik je een systeembericht om het model te sturen zodat het alleen klantvragen over hun internetdienst beantwoordt.
Het Llama-model is nog steeds beschikbaar als llm.
Deze oefening maakt deel uit van de cursus
Werken met Llama 3
Oefeninstructies
- Voeg de
"system"-rol toe aan het berichtwoordenboek dat aan de lijstconvwordt doorgegeven. - Haal de modelrespons
"message"op uit hetresult-object.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Add a system message to the conversation list
conv = [
{
"role": "____",
"content": "You are a helpful and professional customer support assistant for an internet service provider. If the question or instruction doesn't relate to internet service, quote the response: 'Sorry, I can't answer that.'"},
{
"role": "user",
"content": "Help me decide which stocks to invest in."
}
]
result = llm.create_chat_completion(messages=conv, max_tokens=15)
# Extract the model response from the result object
assistant_content = result["choices"][0]["____"]["content"]
print(assistant_content)