Creare il prompt di retrieval
Un elemento chiave di qualsiasi implementazione RAG è il prompt di retrieval. In questo esercizio, creerai un template di prompt per chat per la tua retrieval chain e verificherai che l'LLM sia in grado di rispondere usando solo il contesto fornito.
Un llm è già stato definito e pronto per essere usato.
Questo esercizio fa parte del corso
Retrieval Augmented Generation (RAG) con LangChain
Istruzioni dell'esercizio
- Converti la stringa
promptin un template di prompt per chat riutilizzabile. - Crea una chain LCEL per integrare il template di prompt con l'
llmfornito. - Invoca la
chainsugli input forniti per vedere se il modello riesce a rispondere usando solo il contesto disponibile.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
prompt = """
Use the only the context provided to answer the following question. If you don't know the answer, reply that you are unsure.
Context: {context}
Question: {question}
"""
# Convert the string into a chat prompt template
prompt_template = ____
# Create an LCEL chain to test the prompt
chain = ____ | ____
# Invoke the chain on the inputs provided
print(chain.____({"context": "DataCamp's RAG course was created by Meri Nova and James Chapman!", "question": "Who created DataCamp's RAG course?"}))