ComenzarEmpieza gratis

Crear el prompt de recuperación

Una parte clave de cualquier implementación de RAG es el prompt de recuperación. En este ejercicio, crearás una plantilla de chat para tu cadena de recuperación y comprobarás que el LLM puede responder usando solo el contexto proporcionado.

Ya tienes definido un llm para que lo uses.

Este ejercicio forma parte del curso

Retrieval Augmented Generation (RAG) con LangChain

Ver curso

Instrucciones del ejercicio

  • Convierte la cadena prompt en una plantilla de chat reutilizable.
  • Crea una cadena LCEL para integrar la plantilla del prompt con el llm proporcionado.
  • Invoca chain con las entradas dadas para comprobar si tu modelo puede responder usando solo el contexto proporcionado.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""

# Convert the string into a chat prompt template
prompt_template = ____

# Create an LCEL chain to test the prompt
chain = ____ | ____

# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))
Editar y ejecutar código