1. 학습
  2. /
  3. 강의
  4. /
  5. Pinecone으로 배우는 임베딩용 벡터 데이터베이스

Connected

연습 문제

RAG 질문 답변 함수

거의 다 왔어요! RAG 워크플로의 마지막 단계는 검색된 문서를 질문-답변 모델과 통합하는 것입니다.

prompt_with_context_builder() 함수가 미리 정의되어 제공됩니다. 이 함수는 Pinecone 인덱스에서 검색된 문서를 받아, 질문-답변 모델이 처리할 수 있는 프롬프트로 통합합니다:

def prompt_with_context_builder(query, docs):
    delim = '\n\n---\n\n'
    prompt_start = 'Answer the question based on the context below.\n\nContext:\n'
    prompt_end = f'\n\nQuestion: {query}\nAnswer:'

    prompt = prompt_start + delim.join(docs) + prompt_end
    return prompt

이제 question_answering() 함수를 구현해 보세요. 이 함수는 OpenAI 언어 모델 gpt-4o-mini에 추가 컨텍스트와 출처를 제공하여, 질문에 더 정확히 답할 수 있게 합니다.

지침

100 XP
  • Pinecone 클라이언트를 API 키로 초기화하세요(OpenAI 클라이언트는 client로 제공됩니다).
  • 'youtube_rag_dataset' 네임스페이스에서 query 텍스트와 가장 유사한 문서 3개를 검색하세요.
  • chat_model 함수 인자로 지정된 OpenAI의 'gpt-4o-mini' 모델을 사용해, 제공된 prompt와 sys_prompt에 대한 응답을 생성하세요.