ComeçarComece de graça

Ganhando confiança com fontes de LLM

Você está criando um assistente de análise financeira que precisa fornecer aos usuários informações atualizadas do mercado de ações. Como LLMs têm limites de conhecimento, você precisa ativar a pesquisa na web para acessar dados em tempo real. Além disso, por transparência e credibilidade, você quer mostrar aos usuários quais fontes foram consultadas durante a pesquisa.

O cliente OpenAI foi inicializado como client, e você vai consultar o preço atual das ações da Netflix.

Este exercício faz parte do curso

Trabalhando com a OpenAI Responses API

Ver curso

Instruções do exercício

  • Crie uma requisição com pesquisa na web ativada, garantindo incluir as fontes da pesquisa na resposta.
  • Faça um loop pelos itens da resposta e extraia apenas os itens com tipo "web_search_call", depois imprima o .sources do atributo .action de cada chamada de pesquisa na web.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Create a response with web search enabled and sources included
response = client.responses.create(
    model="gpt-5-mini",
    tools=[{"type": "web_search"}],
    input="What is the current stock price of Netflix?",
    include=["web_search_call.____.____"]
)

# Extract and print sources from web search calls
for item in response.output:
    if ____:
        print(item.action.sources)
        
print(response.output_text)
Editar e executar o código