Modelos de prompt de bate-papo
Dada a importância dos modelos de bate-papo em muitos aplicativos do site LLM, o LangChain oferece funcionalidade para a criação de modelos de prompt para estruturar mensagens para diferentes funções de bate-papo.
A classe ChatPromptTemplate
já foi importada para você e um LLM já foi definido.
Este exercício faz parte do curso
Desenvolvimento de aplicativos LLM com LangChain
Instruções de exercício
- Atribua funções apropriadas às mensagens fornecidas e converta-as em um modelo de prompt de bate-papo.
- Crie uma cadeia LCEL e invoque-a com a entrada fornecida.
Exercício interativo prático
Experimente este exercício preenchendo este código de exemplo.
llm = ChatOpenAI(model="gpt-4o-mini", api_key='')
# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
[
("____", "You are a geography expert that returns the colors present in a country's flag."),
("____", "France"),
("____", "blue, white, red"),
("____", "{country}")
]
)
# Chain the prompt template and model, and invoke the chain
llm_chain = ____
country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)