Aan de slagGa gratis aan de slag

Prompts formatteren voor Llama

Modellen hebben soms moeite om de taak, de verwachte output en extra context te scheiden in een lange, ongestructureerde prompt. Om dit te verhelpen kun je duidelijke labels invoegen om deze informatie voor het model op te splitsen en te onderscheiden.

Het Llama-model is beschikbaar als llm en blijft beschikbaar voor de rest van de cursus.

Deze oefening maakt deel uit van de cursus

Werken met Llama 3

Cursus bekijken

Oefeninstructies

  • Voeg de labels Instruction, Question en Answer toe aan de prompt om deze effectiever te formatteren.
  • Geef de prompt door aan het model.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""

# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"]) 
print(output['choices'][0]['text'])
Code bewerken en uitvoeren