Orientando respostas de atendimento ao cliente
Você trabalha em uma empresa de e-commerce e está integrando o Llama a um assistente de atendimento ao cliente. O assistente responde a perguntas frequentes, mas você percebeu que as respostas estão muito repetitivas.
Você precisa ajustar os parâmetros de decodificação para incentivar uma redação mais variada, mantendo as respostas informativas.
O modelo já foi instanciado com um modelo usando llama_cpp e está armazenado em llm.
Este exercício faz parte do curso
Trabalhando com Llama 3
Instruções do exercício
- Defina o parâmetro
temperaturepara que as respostas fiquem menos repetitivas e mais dinâmicas.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
output = llm(
"Can I exchange an item I purchased?",
# Set the temperature parameter to provide more varied responses
temperature=____,
max_tokens=15
)
print(output['choices'][0]['text'])