IniziaInizia gratis

Recupero sparso con BM25

È il momento di provare un’implementazione di recupero sparso! Creerai un retriever BM25 per fare domande su un articolo accademico su RAG, già suddiviso in blocchi chiamati chunks. Un modello di chat OpenAI e un prompt sono già definiti rispettivamente come llm e prompt. Puoi visualizzare il prompt fornito stampandolo in console.

Questo esercizio fa parte del corso

Retrieval Augmented Generation (RAG) con LangChain

Visualizza il corso

Istruzioni dell'esercizio

  • Crea un retriever sparso BM25 a partire dai documenti memorizzati in chunks; configuralo per restituire 5 documenti nel recupero.
  • Crea una catena di recupero LCEL per integrare il retriever BM25 con llm e prompt forniti.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Create a BM25 retriever from chunks
retriever = ____

# Create the LCEL retrieval chain
chain = ({"context": ____, "question": ____}
         | ____
         | ____
         | StrOutputParser()
)

print(chain.invoke("What are knowledge-intensive tasks?"))
Modifica ed esegui il codice