ComeçarComece de graça

Criação de uma cadeia RAG

Agora é só juntar todos os componentes no seu fluxo de trabalho de RAG! Você preparou os documentos e os inseriu em um banco de dados Chroma para posterior recuperação. Você criou um modelo de prompt para incluir os trechos recuperados do artigo acadêmico e responder às perguntas.

O modelo de prompt que você criou no exercício anterior está disponível como prompt_template; um modelo da OpenAI foi inicializado como llm e o código para recriar seu retriever foi incluído no script.

Este exercício faz parte do curso

Desenvolvimento de aplicativos de LLM com LangChain

Ver curso

Instruções do exercício

  • Crie uma cadeia da LCEL para conectar retriever, prompt_template e llm para que o modelo possa recuperar os documentos.
  • Chame a cadeia na 'question' fornecida.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

vectorstore = Chroma.from_documents(
    docs,
    embedding=OpenAIEmbeddings(api_key='', model='text-embedding-3-small'),
    persist_directory=os.getcwd()
)

retriever = vectorstore.as_retriever(
    search_type="similarity",
    search_kwargs={"k": 3}
)

# Create a chain to link retriever, prompt_template, and llm
rag_chain = ({"context": ____, "question": ____}
            | ____
            | ____)

# Invoke the chain
response = ____("Which popular LLMs were considered in the paper?")
print(response.content)
Editar e executar o código