Fungsi RAG untuk menjawab pertanyaan
Sedikit lagi! Bagian terakhir dalam alur kerja RAG adalah mengintegrasikan dokumen yang diambil dengan model tanya jawab.
Fungsi prompt_with_context_builder() sudah didefinisikan dan tersedia untuk Anda. Fungsi ini mengambil dokumen yang diambil dari indeks Pinecone, lalu mengintegrasikannya ke dalam prompt yang dapat diproses oleh model tanya jawab:
def prompt_with_context_builder(query, docs):
delim = '\n\n---\n\n'
prompt_start = 'Answer the question based on the context below.\n\nContext:\n'
prompt_end = f'\n\nQuestion: {query}\nAnswer:'
prompt = prompt_start + delim.join(docs) + prompt_end
return prompt
Anda akan mengimplementasikan fungsi question_answering(), yang akan menyediakan konteks tambahan dan sumber kepada model bahasa OpenAI gpt-4o-mini agar dapat menjawab pertanyaan Anda.
Latihan ini adalah bagian dari kursus
Database Vektor untuk Embeddings dengan Pinecone
Petunjuk latihan
- Inisialisasi klien Pinecone dengan kunci API Anda (klien OpenAI tersedia sebagai
client). - Ambil tiga dokumen yang paling mirip dengan teks
querydari namespace'youtube_rag_dataset'. - Hasilkan respons terhadap
promptdansys_promptyang disediakan menggunakan model OpenAI'gpt-4o-mini', yang ditentukan melalui argumen fungsichat_model.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Initialize the Pinecone client
pc = Pinecone(api_key="____")
index = pc.Index('pinecone-datacamp')
query = "How to build next-level Q&A with OpenAI"
# Retrieve the top three most similar documents and their sources
documents, sources = retrieve(____, top_k=____, namespace='____', emb_model="text-embedding-3-small")
prompt_with_context = prompt_with_context_builder(query, documents)
print(prompt_with_context)
def question_answering(prompt, sources, chat_model):
sys_prompt = "You are a helpful assistant that always answers questions."
# Use OpenAI chat completions to generate a response
res = ____(
model=____,
messages=[
{"role": "system", "content": ____},
{"role": "user", "content": ____}
],
temperature=0
)
answer = res.choices[0].message.content.strip()
answer += "\n\nSources:"
for source in sources:
answer += "\n" + source[0] + ": " + source[1]
return answer
answer = question_answering(
prompt=prompt_with_context,
sources=sources,
chat_model='gpt-4o-mini')
print(answer)