Eine RAG-Kette erstellen
Jetzt musst alle Teile in deinem RAG-Workflow zusammenfügen! Du hast die Dokumente vorbereitet und in eine Chroma-Datenbank abrufbereit gespeichert. Du hast eine Prompt-Vorlage erstellt, um die aus dem wissenschaftlichen Artikel abgerufenen Teile einzufügen und Fragen zu beantworten.
Die in der vorherigen Übung erstellte Prompt-Vorlage ist unter prompt_template
verfügbar, ein OpenAI-Modell wurde unter llm
initialisiert und der Code zum Erstellen deines retriever
wurde in das Skript aufgenommen.
Diese Übung ist Teil des Kurses
Entwickeln von LLM-Anwendungen mit LangChain
Anleitung zur Übung
- Erstelle eine LCEL-Kette, um
retriever
,prompt_template
undllm
zu verknüpfen, damit das Modell die Dokumente abrufen kann. - Ruf die Kette mit der angegebenen
'Frage'
auf.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
vectorstore = Chroma.from_documents(
docs,
embedding=OpenAIEmbeddings(api_key='', model='text-embedding-3-small'),
persist_directory=os.getcwd()
)
retriever = vectorstore.as_retriever(
search_type="similarity",
search_kwargs={"k": 3}
)
# Create a chain to link retriever, prompt_template, and llm
rag_chain = ({"context": ____, "question": ____}
| ____
| ____)
# Invoke the chain
response = ____("Which popular LLMs were considered in the paper?")
print(response.content)