LoslegenKostenlos loslegen

Prompts für Llama formatieren

Modelle haben manchmal Schwierigkeiten, Aufgabe, erwartete Ausgabe und zusätzlichen Kontext in einem langen, unstrukturierten Prompt voneinander zu trennen. Abhilfe schafft du, indem du klare Labels einfügst, die diese Informationen für das Modell aufteilen und unterscheiden.

Das Llama-Modell ist als llm verfügbar und steht dir für den Rest des Kurses zur Verfügung.

Diese Übung ist Teil des Kurses

Arbeiten mit Llama 3

Kurs anzeigen

Anleitung zur Übung

  • Füge die Labels Instruction, Question und Answer in den Prompt ein, um ihn übersichtlicher zu formatieren.
  • Übergib den Prompt an das Modell.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""

# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"]) 
print(output['choices'][0]['text'])
Code bearbeiten und ausführen