Implementierung von Few-Shot-Prompting
Jetzt kannst du deine Teile zu einer Kette zusammenfügen! Der Few-Shot-Prompt, den du in der letzten Übung erstellt hast, steht dir weiterhin zur Verfügung, zusammen mit examples
und example_prompt
.
Alle LangChain-Klassen, die du für diese Übung brauchst, wurden bereits für dich geladen.
Diese Übung ist Teil des Kurses
Entwickeln von LLM-Anwendungen mit LangChain
Anleitung zur Übung
- Instanziiere ein OpenAI-Chat-LLM.
- Erstelle aus dem LLM und der Prompt-Vorlage eine Kette und rufe sie mit den bereitgestellten Daten auf.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
prompt_template = FewShotPromptTemplate(
examples=examples,
example_prompt=example_prompt,
suffix="Question: {input}",
input_variables=["input"],
)
# Create an OpenAI chat LLM
llm = ____(model="gpt-4o-mini", api_key='')
# Create and invoke the chain
llm_chain = ____
print(____({"input": "What is Jack's favorite technology on DataCamp?"}))