Erstellen einer RAG Kette
Jetzt musst du alle Komponenten in deinem RAG Workflow zusammenbringen! Du hast die Dokumente vorbereitet und sie in eine Chroma-Datenbank zum Abruf eingegeben. Du hast eine Prompt-Vorlage erstellt, um die abgerufenen Chunks aus der wissenschaftlichen Arbeit einzubinden und Fragen zu beantworten.
Die Prompt-Vorlage, die du in der vorherigen Übung erstellt hast, ist als prompt_template
verfügbar, ein OpenAI-Modell wurde als llm
initialisiert und der Code, um dein retriever
zu erstellen, wurde in das Skript aufgenommen.
Diese Übung ist Teil des Kurses
Entwicklung von LLM Anwendungen mit LangChain
Anleitung zur Übung
- Erstelle eine LCEL Kette, um
retriever
,prompt_template
undllm
zu verknüpfen, damit das Modell die Dokumente abrufen kann. - Rufe die Kette auf der bereitgestellten
'question'
auf.
Interaktive Übung zum Anfassen
Probieren Sie diese Übung aus, indem Sie diesen Beispielcode ausführen.
vectorstore = Chroma.from_documents(
docs,
embedding=OpenAIEmbeddings(api_key='', model='text-embedding-3-small'),
persist_directory=os.getcwd()
)
retriever = vectorstore.as_retriever(
search_type="similarity",
search_kwargs={"k": 3}
)
# Create a chain to link retriever, prompt_template, and llm
rag_chain = ({"context": ____, "question": ____}
| ____
| ____)
# Invoke the chain
response = ____("Which popular LLMs were considered in the paper?")
print(response.content)