Crear el prompt de recuperación
Una parte clave de cualquier implementación de RAG es el prompt de recuperación. En este ejercicio, crearás una plantilla de chat para tu cadena de recuperación y comprobarás que el LLM puede responder usando solo el contexto proporcionado.
Ya tienes definido un llm para que lo uses.
Este ejercicio forma parte del curso
Retrieval Augmented Generation (RAG) con LangChain
Instrucciones del ejercicio
- Convierte la cadena
prompten una plantilla de chat reutilizable. - Crea una cadena LCEL para integrar la plantilla del prompt con el
llmproporcionado. - Invoca
chaincon las entradas dadas para comprobar si tu modelo puede responder usando solo el contexto proporcionado.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""
# Convert the string into a chat prompt template
prompt_template = ____
# Create an LCEL chain to test the prompt
chain = ____ | ____
# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))