BaşlayınÜcretsiz Başlayın

Belgeleri gömmek ve depolamak

Belgeleri alma için hazırlamanın son adımı, onları gömmek ve depolamaktır. Parçalanmış belgeleri gömmek için OpenAI'nin text-embedding-3-small modelini kullanacak ve ardından yerel bir Chroma vektör veritabanında depolayacaksın.

Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks makalesini özyinelemeli olarak (recursively) bölerek oluşturduğun chunks önceden yüklendi.

Bu egzersizde bir OpenAI API anahtarı oluşturman ve kullanman gerekmiyor. <OPENAI_API_TOKEN> yer tutucusunu olduğu gibi bırakabilirsin; bu, OpenAI API'sine geçerli istekler gönderecektir.

Bu egzersiz

LangChain ile Retrieval Augmented Generation (RAG)

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • OpenAI'den varsayılan gömme (embedding) modelini başlat.
  • Belge chunks'larını embedding_model ile göm ve bunları bir Chroma vektör veritabanında depola.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

# Initialize the OpenAI embedding model
embedding_model = ____(api_key="", model='text-embedding-3-small')

# Create a Chroma vector store and embed the chunks
vector_store = ____
Kodu Düzenle ve Çalıştır