IniziaInizia gratis

Template di prompt per chat

Dato il ruolo centrale dei modelli di chat in molte applicazioni LLM, LangChain offre funzionalità per creare template di prompt che strutturano i messaggi per diversi ruoli della chat.

La classe ChatPromptTemplate è già stata importata per te e un LLM è già stato definito.

Questo esercizio fa parte del corso

Sviluppare applicazioni LLM con LangChain

Visualizza il corso

Istruzioni dell'esercizio

  • Usa ChatPromptTemplate.from_messages() per convertire le coppie ruolo-messaggio in un template di prompt per chat.
  • Assegna ruoli appropriati ai messaggi forniti per creare uno schema di conversazione.
  • Crea una catena LCEL e invocala con l’input fornito.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

llm = ChatOpenAI(model="gpt-4o-mini", api_key='')

# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
    [
        ("____", "You are a geography expert that returns the colors present in a country's flag."),
        ("____", "France"),
        ("____", "blue, white, red"),
        ("____", "{country}")
    ]
)

# Chain the prompt template and model, and invoke the chain
llm_chain = ____ | llm

country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)
Modifica ed esegui il codice