1. Học hỏi
  2. /
  3. Khoa Học
  4. /
  5. Cơ sở dữ liệu vector cho Embeddings với Pinecone

Connected

Bài tập

Hàm trả lời câu hỏi kiểu RAG

Bạn sắp hoàn thành rồi! Mảnh ghép cuối trong quy trình RAG là tích hợp các tài liệu đã truy xuất với một mô hình trả lời câu hỏi.

Một hàm prompt_with_context_builder() đã được định nghĩa sẵn và cung cấp cho bạn. Hàm này nhận các tài liệu lấy từ Pinecone index và tích hợp chúng vào một prompt mà mô hình trả lời câu hỏi có thể xử lý:

def prompt_with_context_builder(query, docs):
    delim = '\n\n---\n\n'
    prompt_start = 'Answer the question based on the context below.\n\nContext:\n'
    prompt_end = f'\n\nQuestion: {query}\nAnswer:'

    prompt = prompt_start + delim.join(docs) + prompt_end
    return prompt

Bạn sẽ triển khai hàm question_answering(), hàm này sẽ cung cấp cho mô hình ngôn ngữ gpt-4o-mini của OpenAI thêm ngữ cảnh và nguồn trích dẫn để mô hình có thể trả lời câu hỏi của bạn.

Hướng dẫn

100 XP
  • Khởi tạo Pinecone client với API key của bạn (OpenAI client đã có sẵn dưới tên client).
  • Truy xuất ba tài liệu giống nhất với văn bản query từ namespace 'youtube_rag_dataset'.
  • Tạo phản hồi cho prompt và sys_prompt đã cho bằng mô hình 'gpt-4o-mini' của OpenAI, được chỉ định thông qua đối số hàm chat_model.