LoslegenKostenlos loslegen

Vorlagen für Chat-Prompts

Angesichts der Bedeutung von Chat-Modellen in vielen LLM-Anwendungen, bietet LangChain Funktionen zum Erstellen von Prompt-Vorlagen, um Nachrichten für verschiedene Chat-Rollen zu strukturieren.

Die Klasse ChatPromptTemplate wurde bereits für dich importiert. Ein LLM wurde auch schon definiert.

Diese Übung ist Teil des Kurses

Entwickeln von LLM-Anwendungen mit LangChain

Kurs anzeigen

Anleitung zur Übung

  • Weise den bereitgestellten Nachrichten die richtigen Rollen zu und erstelle daraus eine Chat-Prompt-Vorlage.
  • Erstelle eine LangChain Expression Language (LCEL) Kette und rufe diese mit den angegebenen Eingaben auf.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

llm = ChatOpenAI(model="gpt-4o-mini", api_key='')

# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
    [
        ("____", "You are a geography expert that returns the colors present in a country's flag."),
        ("____", "France"),
        ("____", "blue, white, red"),
        ("____", "{country}")
    ]
)

# Chain the prompt template and model, and invoke the chain
llm_chain = ____ | llm

country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)
Code bearbeiten und ausführen