ComeçarComece de graça

Orientando respostas de atendimento ao cliente

Você trabalha em uma empresa de e-commerce e está integrando o Llama a um assistente de atendimento ao cliente. O assistente responde a perguntas frequentes, mas você percebeu que as respostas estão muito repetitivas.

Você precisa ajustar os parâmetros de decodificação para incentivar uma redação mais variada, mantendo as respostas informativas.

O modelo já foi instanciado com um modelo usando llama_cpp e está armazenado em llm.

Este exercício faz parte do curso

Trabalhando com Llama 3

Ver curso

Instruções do exercício

  • Defina o parâmetro temperature para que as respostas fiquem menos repetitivas e mais dinâmicas.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

output = llm(
		"Can I exchange an item I purchased?", 
  		# Set the temperature parameter to provide more varied responses
		temperature=____,
        max_tokens=15
) 

print(output['choices'][0]['text'])
Editar e executar o código