ComeçarComece de graça

Criando o prompt de recuperação

Uma parte fundamental de qualquer implementação de RAG é o prompt de recuperação. Neste exercício, você vai criar um template de prompt de chat para sua cadeia de recuperação e testar se o LLM consegue responder usando apenas o contexto fornecido.

Um llm já foi definido para você utilizar.

Este exercício faz parte do curso

Retrieval Augmented Generation (RAG) com LangChain

Ver curso

Instruções do exercício

  • Converta a string prompt em um template de prompt de chat reutilizável.
  • Crie uma cadeia LCEL para integrar o template de prompt com o llm fornecido.
  • Invoque o chain com as entradas fornecidas para verificar se seu modelo consegue responder usando apenas o contexto disponível.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""

# Convert the string into a chat prompt template
prompt_template = ____

# Create an LCEL chain to test the prompt
chain = ____ | ____

# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))
Editar e executar o código