Die Retrieval-Chain bauen
Jetzt kommt das Finale des Kapitels! Du erstellst eine Retrieval-Chain mit LangChains Expression Language (LCEL). Dabei kombinierst du den Vektorspeicher mit den eingebetteten Dokument-Chunks aus dem RAG-Paper, das du zuvor geladen hast, eine Prompt-Vorlage und ein LLM – so kannst du direkt mit deinen Dokumenten „sprechen“.
Hier ist zur Erinnerung die prompt_template, die du in der vorherigen Übung erstellt hast und die dir zur Verfügung steht:
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
Der vector_store mit den eingebetteten Dokument-Chunks, den du zuvor erstellt hast, wurde ebenfalls für dich geladen – zusammen mit allen benötigten Bibliotheken und Klassen.
Diese Übung ist Teil des Kurses
Retrieval Augmented Generation (RAG) mit LangChain
Anleitung zur Übung
- Wandle den Chroma-
vector_storein ein Retriever-Objekt um, das in der LCEL-Retrieval-Chain verwendet werden kann. - Erstelle die LCEL-Retrieval-Chain, die den
retriever, dieprompt_template, dasllmund einen String-Output-Parser kombiniert, damit Eingabefragen beantwortet werden können. - Führe die Chain mit der bereitgestellten Frage aus.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Convert the vector store into a retriever
retriever = vector_store.____(search_type="similarity", search_kwargs=____)
# Create the LCEL retrieval chain
chain = (
{"____": ____, "question": ____}
| ____
| ____
)
# Invoke the chain
print(chain.____("Who are the authors?"))