Formater des invites pour Llama
Les modèles ont parfois du mal à distinguer la tâche, le format de sortie attendu et le contexte supplémentaire lorsqu’une invite est longue et non structurée. Pour y remédier, vous pouvez insérer des libellés clairs afin de segmenter et différencier ces informations pour le modèle.
Le modèle Llama est disponible sous le nom llm et le restera pour le reste du cours.
Cet exercice fait partie du cours
Travailler avec Llama 3
Instructions
- Ajoutez les libellés
Instruction,QuestionetAnswerà l’invite pour la structurer plus efficacement. - Passez l’invite au modèle.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""
# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"])
print(output['choices'][0]['text'])