Prompts für Llama formatieren
Modelle haben manchmal Schwierigkeiten, Aufgabe, erwartete Ausgabe und zusätzlichen Kontext in einem langen, unstrukturierten Prompt voneinander zu trennen. Abhilfe schafft du, indem du klare Labels einfügst, die diese Informationen für das Modell aufteilen und unterscheiden.
Das Llama-Modell ist als llm verfügbar und steht dir für den Rest des Kurses zur Verfügung.
Diese Übung ist Teil des Kurses
Arbeiten mit Llama 3
Anleitung zur Übung
- Füge die Labels
Instruction,QuestionundAnswerin den Prompt ein, um ihn übersichtlicher zu formatieren. - Übergib den Prompt an das Modell.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""
# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"])
print(output['choices'][0]['text'])