LoslegenKostenlos loslegen

Den Retrieval-Prompt erstellen

Ein zentrales Element jeder RAG-Implementierung ist der Retrieval-Prompt. In dieser Übung erstellst du eine Chat-Prompt-Vorlage für deine Retrieval-Chain und testest, ob das LLM ausschließlich mit dem bereitgestellten Kontext antworten kann.

Ein llm wurde bereits für dich definiert.

Diese Übung ist Teil des Kurses

Retrieval Augmented Generation (RAG) mit LangChain

Kurs anzeigen

Anleitung zur Übung

  • Wandle den String prompt in eine wiederverwendbare Chat-Prompt-Vorlage um.
  • Erstelle eine LCEL-Chain, um die Prompt-Vorlage mit dem bereitgestellten llm zu verbinden.
  • Rufe die chain mit den gegebenen Eingaben auf, um zu prüfen, ob dein Modell ausschließlich den bereitgestellten Kontext verwendet.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""

# Convert the string into a chat prompt template
prompt_template = ____

# Create an LCEL chain to test the prompt
chain = ____ | ____

# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))
Code bearbeiten und ausführen