Aan de slagGa gratis aan de slag

Few-shot prompting implementeren

Tijd om je componenten te combineren tot een chain! De few-shot prompt die je in de vorige oefening hebt gemaakt, is nog beschikbaar om te gebruiken, samen met examples en example_prompt.

Alle LangChain-klassen die je nodig hebt om deze oefening te voltooien, zijn al voor je geladen.

Deze oefening maakt deel uit van de cursus

LLM-toepassingen ontwikkelen met LangChain

Cursus bekijken

Oefeninstructies

  • Maak een OpenAI chat-LLM met de klasse ChatOpenAI.
  • Maak een chain van de prompttemplate en de LLM met de operator |, en roep deze daarna aan met de methode .invoke().

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

prompt_template = FewShotPromptTemplate(
    examples=examples,
    example_prompt=example_prompt,
    suffix="Question: {input}",
    input_variables=["input"],
)

# Create an OpenAI chat LLM
llm = ____(model="gpt-4o-mini", api_key='')

# Create and invoke the chain
llm_chain = ____
print(____({"input": "What is Jack's favorite technology on DataCamp?"}))
Code bewerken en uitvoeren