Den Retrieval-Prompt erstellen
Ein zentrales Element jeder RAG-Implementierung ist der Retrieval-Prompt. In dieser Übung erstellst du eine Chat-Prompt-Vorlage für deine Retrieval-Chain und testest, ob das LLM ausschließlich mit dem bereitgestellten Kontext antworten kann.
Ein llm wurde bereits für dich definiert.
Diese Übung ist Teil des Kurses
Retrieval Augmented Generation (RAG) mit LangChain
Anleitung zur Übung
- Wandle den String
promptin eine wiederverwendbare Chat-Prompt-Vorlage um. - Erstelle eine LCEL-Chain, um die Prompt-Vorlage mit dem bereitgestellten
llmzu verbinden. - Rufe die
chainmit den gegebenen Eingaben auf, um zu prüfen, ob dein Modell ausschließlich den bereitgestellten Kontext verwendet.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""
# Convert the string into a chat prompt template
prompt_template = ____
# Create an LCEL chain to test the prompt
chain = ____ | ____
# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))