Erste SchritteKostenlos loslegen

Chat-Prompt-Vorlagen

Angesichts der Bedeutung von Chat-Modellen in vielen LLM Anwendungen bietet LangChain Funktionen zur Erstellung von Prompt-Vorlagen, um Nachrichten für verschiedene Chat-Rollen zu strukturieren.

Die Klasse ChatPromptTemplate wurde bereits für dich importiert und eine LLM wurde bereits definiert.

Diese Übung ist Teil des Kurses

Entwicklung von LLM Anwendungen mit LangChain

Kurs anzeigen

Anleitung zur Übung

  • Weise den bereitgestellten Nachrichten die entsprechenden Rollen zu und wandle sie in eine Chatvorlage um.
  • Erstelle eine LCEL Kette und rufe sie mit den angegebenen Eingaben auf.

Interaktive Übung zum Anfassen

Probieren Sie diese Übung aus, indem Sie diesen Beispielcode ausführen.

llm = ChatOpenAI(model="gpt-4o-mini", api_key='')

# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
    [
        ("____", "You are a geography expert that returns the colors present in a country's flag."),
        ("____", "France"),
        ("____", "blue, white, red"),
        ("____", "{country}")
    ]
)

# Chain the prompt template and model, and invoke the chain
llm_chain = ____

country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)
Bearbeiten und Ausführen von Code