Prompts formatteren voor Llama
Modellen hebben soms moeite om de taak, de verwachte output en extra context te scheiden in een lange, ongestructureerde prompt. Om dit te verhelpen kun je duidelijke labels invoegen om deze informatie voor het model op te splitsen en te onderscheiden.
Het Llama-model is beschikbaar als llm en blijft beschikbaar voor de rest van de cursus.
Deze oefening maakt deel uit van de cursus
Werken met Llama 3
Oefeninstructies
- Voeg de labels
Instruction,QuestionenAnswertoe aan de prompt om deze effectiever te formatteren. - Geef de prompt door aan het model.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""
# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"])
print(output['choices'][0]['text'])