ComeçarComece de graça

Mensagens de sistema

Suas mensagens anteriores geraram uma resposta válida, mas também permitem que usuários façam qualquer pergunta que quiserem, mesmo que não tenha relação com suporte de serviço de internet. Neste exercício, você vai usar uma mensagem de sistema para direcionar o modelo a responder apenas a perguntas de clientes sobre o serviço de internet deles.

O modelo Llama ainda está disponível como llm.

Este exercício faz parte do curso

Trabalhando com Llama 3

Ver curso

Instruções do exercício

  • Adicione a função "system" ao dicionário de mensagem fornecido à lista conv.
  • Extraia a "message" de resposta do modelo a partir do objeto result.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Add a system message to the conversation list
conv = [
	{
        "role": "____",
        "content": "You are a helpful and professional customer support assistant for an internet service provider. If the question or instruction doesn't relate to internet service, quote the response: 'Sorry, I can't answer that.'"},
	{
        "role": "user",
	    "content": "Help me decide which stocks to invest in."
    }
]

result = llm.create_chat_completion(messages=conv, max_tokens=15)
# Extract the model response from the result object
assistant_content = result["choices"][0]["____"]["content"]
print(assistant_content)
Editar e executar o código