ComeçarComece de graça

Formatando prompts para o Llama

Às vezes, os modelos têm dificuldade para separar a tarefa, a saída esperada e o contexto adicional em um prompt longo e sem estrutura. Para resolver isso, você pode inserir rótulos claros para dividir e diferenciar essas informações para o modelo.

O modelo Llama está disponível como llm e continuará disponível pelo restante do curso.

Este exercício faz parte do curso

Trabalhando com Llama 3

Ver curso

Instruções do exercício

  • Adicione os rótulos Instruction, Question e Answer ao prompt para formatá-lo de forma mais eficaz.
  • Passe o prompt para o modelo.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""

# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"]) 
print(output['choices'][0]['text'])
Editar e executar o código