Template di prompt per chat
Dato il ruolo centrale dei modelli di chat in molte applicazioni LLM, LangChain offre funzionalità per creare template di prompt che strutturano i messaggi per diversi ruoli della chat.
La classe ChatPromptTemplate è già stata importata per te e un LLM è già stato definito.
Questo esercizio fa parte del corso
Sviluppare applicazioni LLM con LangChain
Istruzioni dell'esercizio
- Usa
ChatPromptTemplate.from_messages()per convertire le coppie ruolo-messaggio in un template di prompt per chat. - Assegna ruoli appropriati ai messaggi forniti per creare uno schema di conversazione.
- Crea una catena LCEL e invocala con l’input fornito.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
llm = ChatOpenAI(model="gpt-4o-mini", api_key='')
# Create a chat prompt template
prompt_template = ChatPromptTemplate.____(
[
("____", "You are a geography expert that returns the colors present in a country's flag."),
("____", "France"),
("____", "blue, white, red"),
("____", "{country}")
]
)
# Chain the prompt template and model, and invoke the chain
llm_chain = ____ | llm
country = "Japan"
response = llm_chain.invoke({"country": country})
print(response.content)