Erste SchritteKostenlos loslegen

Erstellen einer RAG Kette

Jetzt musst du alle Komponenten in deinem RAG Workflow zusammenbringen! Du hast die Dokumente vorbereitet und sie in eine Chroma-Datenbank zum Abruf eingegeben. Du hast eine Prompt-Vorlage erstellt, um die abgerufenen Chunks aus der wissenschaftlichen Arbeit einzubinden und Fragen zu beantworten.

Die Prompt-Vorlage, die du in der vorherigen Übung erstellt hast, ist als prompt_template verfügbar, ein OpenAI-Modell wurde als llm initialisiert und der Code, um dein retriever zu erstellen, wurde in das Skript aufgenommen.

Diese Übung ist Teil des Kurses

Entwicklung von LLM Anwendungen mit LangChain

Kurs anzeigen

Anleitung zur Übung

  • Erstelle eine LCEL Kette, um retriever, prompt_template und llm zu verknüpfen, damit das Modell die Dokumente abrufen kann.
  • Rufe die Kette auf der bereitgestellten 'question' auf.

Interaktive Übung zum Anfassen

Probieren Sie diese Übung aus, indem Sie diesen Beispielcode ausführen.

vectorstore = Chroma.from_documents(
    docs,
    embedding=OpenAIEmbeddings(api_key='', model='text-embedding-3-small'),
    persist_directory=os.getcwd()
)

retriever = vectorstore.as_retriever(
    search_type="similarity",
    search_kwargs={"k": 3}
)

# Create a chain to link retriever, prompt_template, and llm
rag_chain = ({"context": ____, "question": ____}
            | ____
            | ____)

# Invoke the chain
response = ____("Which popular LLMs were considered in the paper?")
print(response.content)
Bearbeiten und Ausführen von Code