LoslegenKostenlos loslegen

Eine RAG-Kette erstellen

Jetzt musst alle Teile in deinem RAG-Workflow zusammenfügen! Du hast die Dokumente vorbereitet und in eine Chroma-Datenbank abrufbereit gespeichert. Du hast eine Prompt-Vorlage erstellt, um die aus dem wissenschaftlichen Artikel abgerufenen Teile einzufügen und Fragen zu beantworten.

Die in der vorherigen Übung erstellte Prompt-Vorlage ist unter prompt_template verfügbar, ein OpenAI-Modell wurde unter llm initialisiert und der Code zum Erstellen deines retriever wurde in das Skript aufgenommen.

Diese Übung ist Teil des Kurses

Entwickeln von LLM-Anwendungen mit LangChain

Kurs anzeigen

Anleitung zur Übung

  • Erstelle eine LCEL-Kette, um retriever, prompt_template und llm zu verknüpfen, damit das Modell die Dokumente abrufen kann.
  • Ruf die Kette mit der angegebenen 'Frage' auf.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

vectorstore = Chroma.from_documents(
    docs,
    embedding=OpenAIEmbeddings(api_key='', model='text-embedding-3-small'),
    persist_directory=os.getcwd()
)

retriever = vectorstore.as_retriever(
    search_type="similarity",
    search_kwargs={"k": 3}
)

# Create a chain to link retriever, prompt_template, and llm
rag_chain = ({"context": ____, "question": ____}
            | ____
            | ____)

# Invoke the chain
response = ____("Which popular LLMs were considered in the paper?")
print(response.content)
Code bearbeiten und ausführen