Implementare il few-shot prompting
È il momento di combinare i tuoi componenti in una chain! Il few-shot prompt che hai creato nell'esercizio precedente è ancora disponibile, insieme a examples e example_prompt.
Tutte le classi di LangChain necessarie per completare questo esercizio sono già state caricate per te.
Questo esercizio fa parte del corso
Sviluppare applicazioni LLM con LangChain
Istruzioni dell'esercizio
- Istanzia un LLM di chat OpenAI usando la classe
ChatOpenAI. - Crea una chain dal prompt template e dall'LLM usando l'operatore
|, quindi invocala con il metodo.invoke().
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
prompt_template = FewShotPromptTemplate(
examples=examples,
example_prompt=example_prompt,
suffix="Question: {input}",
input_variables=["input"],
)
# Create an OpenAI chat LLM
llm = ____(model="gpt-4o-mini", api_key='')
# Create and invoke the chain
llm_chain = ____
print(____({"input": "What is Jack's favorite technology on DataCamp?"}))