Criando o prompt de recuperação
Uma parte fundamental de qualquer implementação de RAG é o prompt de recuperação. Neste exercício, você vai criar um template de prompt de chat para sua cadeia de recuperação e testar se o LLM consegue responder usando apenas o contexto fornecido.
Um llm já foi definido para você utilizar.
Este exercício faz parte do curso
Retrieval Augmented Generation (RAG) com LangChain
Instruções do exercício
- Converta a string
promptem um template de prompt de chat reutilizável. - Crie uma cadeia LCEL para integrar o template de prompt com o
llmfornecido. - Invoque o
chaincom as entradas fornecidas para verificar se seu modelo consegue responder usando apenas o contexto disponível.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""
# Convert the string into a chat prompt template
prompt_template = ____
# Create an LCEL chain to test the prompt
chain = ____ | ____
# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))