LoslegenKostenlos loslegen

Die Retrieval-Chain bauen

Jetzt kommt das Finale des Kapitels! Du erstellst eine Retrieval-Chain mit LangChains Expression Language (LCEL). Dabei kombinierst du den Vektorspeicher mit den eingebetteten Dokument-Chunk­s aus dem RAG-Paper, das du zuvor geladen hast, eine Prompt-Vorlage und ein LLM – so kannst du direkt mit deinen Dokumenten „sprechen“.

Hier ist zur Erinnerung die prompt_template, die du in der vorherigen Übung erstellt hast und die dir zur Verfügung steht:

Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}

Der vector_store mit den eingebetteten Dokument-Chunk­s, den du zuvor erstellt hast, wurde ebenfalls für dich geladen – zusammen mit allen benötigten Bibliotheken und Klassen.

Diese Übung ist Teil des Kurses

Retrieval Augmented Generation (RAG) mit LangChain

Kurs anzeigen

Anleitung zur Übung

  • Wandle den Chroma-vector_store in ein Retriever-Objekt um, das in der LCEL-Retrieval-Chain verwendet werden kann.
  • Erstelle die LCEL-Retrieval-Chain, die den retriever, die prompt_template, das llm und einen String-Output-Parser kombiniert, damit Eingabefragen beantwortet werden können.
  • Führe die Chain mit der bereitgestellten Frage aus.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Convert the vector store into a retriever
retriever = vector_store.____(search_type="similarity", search_kwargs=____)

# Create the LCEL retrieval chain
chain = (
    {"____": ____, "question": ____}
    | ____
    | ____
)

# Invoke the chain
print(chain.____("Who are the authors?"))
Code bearbeiten und ausführen