Pengambilan sparse dengan BM25
Saatnya mencoba implementasi pengambilan sparse! Anda akan membuat retriever BM25 untuk mengajukan pertanyaan tentang makalah akademik mengenai RAG, yang sudah dipecah menjadi potongan bernama chunks. Model chat OpenAI dan prompt juga telah didefinisikan sebagai llm dan prompt. Anda dapat melihat prompt yang disediakan dengan mencetaknya di konsol.
Latihan ini adalah bagian dari kursus
Retrieval Augmented Generation (RAG) dengan LangChain
Petunjuk latihan
- Buat retriever sparse BM25 dari dokumen yang disimpan dalam
chunks; konfigurasikan agar mengembalikan5dokumen saat pengambilan. - Buat rantai pengambilan LCEL untuk mengintegrasikan retriever BM25 dengan
llmdanpromptyang disediakan.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Create a BM25 retriever from chunks
retriever = ____
# Create the LCEL retrieval chain
chain = ({"context": ____, "question": ____}
| ____
| ____
| StrOutputParser()
)
print(chain.invoke("What are knowledge-intensive tasks?"))