Aan de slagGa gratis aan de slag

De retrieval-prompt maken

Een cruciaal onderdeel van elke RAG-implementatie is de retrieval-prompt. In deze oefening maak je een chat-prompttemplate voor je retrieval chain en test je of de LLM alleen op basis van de aangeleverde context kan antwoorden.

Er is al een llm voor je gedefinieerd die je kunt gebruiken.

Deze oefening maakt deel uit van de cursus

Retrieval Augmented Generation (RAG) met LangChain

Cursus bekijken

Oefeninstructies

  • Zet de string prompt om naar een herbruikbare chat-prompttemplate.
  • Maak een LCEL-chain om de prompttemplate te integreren met de meegeleverde llm.
  • Roep de chain aan met de gegeven inputs om te zien of je model alleen met de aangeleverde context kan antwoorden.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""

# Convert the string into a chat prompt template
prompt_template = ____

# Create an LCEL chain to test the prompt
chain = ____ | ____

# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))
Code bewerken en uitvoeren