CommencerCommencer gratuitement

Créer l’invite de récupération

Un élément clé de toute implémentation RAG est l’invite de récupération. Dans cet exercice, vous allez créer un modèle d’invite pour chat pour votre chaîne de récupération et vérifier que le LLM est capable de répondre uniquement avec le contexte fourni.

Un llm a déjà été défini pour vous.

Cet exercice fait partie du cours

Retrieval Augmented Generation (RAG) avec LangChain

Afficher le cours

Instructions

  • Convertissez la chaîne prompt en un modèle d’invite pour chat réutilisable.
  • Créez une chaîne LCEL pour intégrer le modèle d’invite avec le llm fourni.
  • Invoquez la chain sur les entrées fournies pour vérifier si votre modèle peut répondre uniquement avec le contexte fourni.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""

# Convert the string into a chat prompt template
prompt_template = ____

# Create an LCEL chain to test the prompt
chain = ____ | ____

# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))
Modifier et exécuter le code