IniziaInizia gratis

Implementare il few-shot prompting

È il momento di combinare i tuoi componenti in una chain! Il few-shot prompt che hai creato nell'esercizio precedente è ancora disponibile, insieme a examples e example_prompt.

Tutte le classi di LangChain necessarie per completare questo esercizio sono già state caricate per te.

Questo esercizio fa parte del corso

Sviluppare applicazioni LLM con LangChain

Visualizza il corso

Istruzioni dell'esercizio

  • Istanzia un LLM di chat OpenAI usando la classe ChatOpenAI.
  • Crea una chain dal prompt template e dall'LLM usando l'operatore |, quindi invocala con il metodo .invoke().

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

prompt_template = FewShotPromptTemplate(
    examples=examples,
    example_prompt=example_prompt,
    suffix="Question: {input}",
    input_variables=["input"],
)

# Create an OpenAI chat LLM
llm = ____(model="gpt-4o-mini", api_key='')

# Create and invoke the chain
llm_chain = ____
print(____({"input": "What is Jack's favorite technology on DataCamp?"}))
Modifica ed esegui il codice