Chat-Prompt-Vorlagen
Angesichts der Bedeutung von Chat-Modellen in vielen LLM Anwendungen bietet LangChain Funktionen zur Erstellung von Prompt-Vorlagen, um Nachrichten für verschiedene Chat-Rollen zu strukturieren.
Die Klasse ChatPromptTemplate
wurde bereits für dich importiert und eine LLM wurde bereits definiert.
Diese Übung ist Teil des Kurses
Entwicklung von LLM Anwendungen mit LangChain
Anleitung zur Übung
- Weise den bereitgestellten Nachrichten die entsprechenden Rollen zu und wandle sie in eine Chatvorlage um.
- Erstelle eine LCEL Kette und rufe sie mit den angegebenen Eingaben auf.
Interaktive Übung zum Anfassen
Probieren Sie diese Übung aus, indem Sie diesen Beispielcode ausführen.
llm = ChatOpenAI(model="gpt-4o-mini", api_key='')
# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
[
("____", "You are a geography expert that returns the colors present in a country's flag."),
("____", "France"),
("____", "blue, white, red"),
("____", "{country}")
]
)
# Chain the prompt template and model, and invoke the chain
llm_chain = ____
country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)