ComeçarComece gratuitamente

Modelos de prompt de bate-papo

Dada a importância dos modelos de bate-papo em muitos aplicativos do site LLM, o LangChain oferece funcionalidade para a criação de modelos de prompt para estruturar mensagens para diferentes funções de bate-papo.

A classe ChatPromptTemplate já foi importada para você e um LLM já foi definido.

Este exercício faz parte do curso

Desenvolvimento de aplicativos LLM com LangChain

Ver Curso

Instruções de exercício

  • Atribua funções apropriadas às mensagens fornecidas e converta-as em um modelo de prompt de bate-papo.
  • Crie uma cadeia LCEL e invoque-a com a entrada fornecida.

Exercício interativo prático

Experimente este exercício preenchendo este código de exemplo.

llm = ChatOpenAI(model="gpt-4o-mini", api_key='')

# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
    [
        ("____", "You are a geography expert that returns the colors present in a country's flag."),
        ("____", "France"),
        ("____", "blue, white, red"),
        ("____", "{country}")
    ]
)

# Chain the prompt template and model, and invoke the chain
llm_chain = ____

country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)
Editar e executar código