Belgeleri gömmek ve depolamak
Belgeleri alma için hazırlamanın son adımı, onları gömmek ve depolamaktır. Parçalanmış belgeleri gömmek için OpenAI'nin text-embedding-3-small modelini kullanacak ve ardından yerel bir Chroma vektör veritabanında depolayacaksın.
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks makalesini özyinelemeli olarak (recursively) bölerek oluşturduğun chunks önceden yüklendi.
Bu egzersizde bir OpenAI API anahtarı oluşturman ve kullanman gerekmiyor. <OPENAI_API_TOKEN> yer tutucusunu olduğu gibi bırakabilirsin; bu, OpenAI API'sine geçerli istekler gönderecektir.
Bu egzersiz
LangChain ile Retrieval Augmented Generation (RAG)
kursunun bir parçasıdırEgzersiz talimatları
- OpenAI'den varsayılan gömme (embedding) modelini başlat.
- Belge
chunks'larınıembedding_modelile göm ve bunları bir Chroma vektör veritabanında depola.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
# Initialize the OpenAI embedding model
embedding_model = ____(api_key="", model='text-embedding-3-small')
# Create a Chroma vector store and embed the chunks
vector_store = ____