Few-shot prompting implementeren
Tijd om je componenten te combineren tot een chain! De few-shot prompt die je in de vorige oefening hebt gemaakt, is nog beschikbaar om te gebruiken, samen met examples en example_prompt.
Alle LangChain-klassen die je nodig hebt om deze oefening te voltooien, zijn al voor je geladen.
Deze oefening maakt deel uit van de cursus
LLM-toepassingen ontwikkelen met LangChain
Oefeninstructies
- Maak een OpenAI chat-LLM met de klasse
ChatOpenAI. - Maak een chain van de prompttemplate en de LLM met de operator
|, en roep deze daarna aan met de methode.invoke().
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
prompt_template = FewShotPromptTemplate(
examples=examples,
example_prompt=example_prompt,
suffix="Question: {input}",
input_variables=["input"],
)
# Create an OpenAI chat LLM
llm = ____(model="gpt-4o-mini", api_key='')
# Create and invoke the chain
llm_chain = ____
print(____({"input": "What is Jack's favorite technology on DataCamp?"}))