Vorlagen für Chat-Prompts
Angesichts der Bedeutung von Chat-Modellen in vielen LLM-Anwendungen, bietet LangChain Funktionen zum Erstellen von Prompt-Vorlagen, um Nachrichten für verschiedene Chat-Rollen zu strukturieren.
Die Klasse ChatPromptTemplate
wurde bereits für dich importiert. Ein LLM wurde auch schon definiert.
Diese Übung ist Teil des Kurses
Entwickeln von LLM-Anwendungen mit LangChain
Anleitung zur Übung
- Weise den bereitgestellten Nachrichten die richtigen Rollen zu und erstelle daraus eine Chat-Prompt-Vorlage.
- Erstelle eine LangChain Expression Language (LCEL) Kette und rufe diese mit den angegebenen Eingaben auf.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
llm = ChatOpenAI(model="gpt-4o-mini", api_key='')
# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
[
("____", "You are a geography expert that returns the colors present in a country's flag."),
("____", "France"),
("____", "blue, white, red"),
("____", "{country}")
]
)
# Chain the prompt template and model, and invoke the chain
llm_chain = ____ | llm
country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)