De retrieval-prompt maken
Een cruciaal onderdeel van elke RAG-implementatie is de retrieval-prompt. In deze oefening maak je een chat-prompttemplate voor je retrieval chain en test je of de LLM alleen op basis van de aangeleverde context kan antwoorden.
Er is al een llm voor je gedefinieerd die je kunt gebruiken.
Deze oefening maakt deel uit van de cursus
Retrieval Augmented Generation (RAG) met LangChain
Oefeninstructies
- Zet de string
promptom naar een herbruikbare chat-prompttemplate. - Maak een LCEL-chain om de prompttemplate te integreren met de meegeleverde
llm. - Roep de
chainaan met de gegeven inputs om te zien of je model alleen met de aangeleverde context kan antwoorden.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""
# Convert the string into a chat prompt template
prompt_template = ____
# Create an LCEL chain to test the prompt
chain = ____ | ____
# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))