MulaiMulai sekarang secara gratis

Pengambilan sparse dengan BM25

Saatnya mencoba implementasi pengambilan sparse! Anda akan membuat retriever BM25 untuk mengajukan pertanyaan tentang makalah akademik mengenai RAG, yang sudah dipecah menjadi potongan bernama chunks. Model chat OpenAI dan prompt juga telah didefinisikan sebagai llm dan prompt. Anda dapat melihat prompt yang disediakan dengan mencetaknya di konsol.

Latihan ini adalah bagian dari kursus

Retrieval Augmented Generation (RAG) dengan LangChain

Lihat Kursus

Petunjuk latihan

  • Buat retriever sparse BM25 dari dokumen yang disimpan dalam chunks; konfigurasikan agar mengembalikan 5 dokumen saat pengambilan.
  • Buat rantai pengambilan LCEL untuk mengintegrasikan retriever BM25 dengan llm dan prompt yang disediakan.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Create a BM25 retriever from chunks
retriever = ____

# Create the LCEL retrieval chain
chain = ({"context": ____, "question": ____}
         | ____
         | ____
         | StrOutputParser()
)

print(chain.invoke("What are knowledge-intensive tasks?"))
Edit dan Jalankan Kode