CommencerCommencer gratuitement

Formater des invites pour Llama

Les modèles ont parfois du mal à distinguer la tâche, le format de sortie attendu et le contexte supplémentaire lorsqu’une invite est longue et non structurée. Pour y remédier, vous pouvez insérer des libellés clairs afin de segmenter et différencier ces informations pour le modèle.

Le modèle Llama est disponible sous le nom llm et le restera pour le reste du cours.

Cet exercice fait partie du cours

Travailler avec Llama 3

Afficher le cours

Instructions

  • Ajoutez les libellés Instruction, Question et Answer à l’invite pour la structurer plus efficacement.
  • Passez l’invite au modèle.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""

# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"]) 
print(output['choices'][0]['text'])
Modifier et exécuter le code