Formatando prompts para o Llama
Às vezes, os modelos têm dificuldade para separar a tarefa, a saída esperada e o contexto adicional em um prompt longo e sem estrutura. Para resolver isso, você pode inserir rótulos claros para dividir e diferenciar essas informações para o modelo.
O modelo Llama está disponível como llm e continuará disponível pelo restante do curso.
Este exercício faz parte do curso
Trabalhando com Llama 3
Instruções do exercício
- Adicione os rótulos
Instruction,QuestioneAnswerao prompt para formatá-lo de forma mais eficaz. - Passe o prompt para o modelo.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""
# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"])
print(output['choices'][0]['text'])