Ganhando confiança com fontes de LLM
Você está criando um assistente de análise financeira que precisa fornecer aos usuários informações atualizadas do mercado de ações. Como LLMs têm limites de conhecimento, você precisa ativar a pesquisa na web para acessar dados em tempo real. Além disso, por transparência e credibilidade, você quer mostrar aos usuários quais fontes foram consultadas durante a pesquisa.
O cliente OpenAI foi inicializado como client, e você vai consultar o preço atual das ações da Netflix.
Este exercício faz parte do curso
Trabalhando com a OpenAI Responses API
Instruções do exercício
- Crie uma requisição com pesquisa na web ativada, garantindo incluir as fontes da pesquisa na resposta.
- Faça um loop pelos itens da resposta e extraia apenas os itens com tipo
"web_search_call", depois imprima o.sourcesdo atributo.actionde cada chamada de pesquisa na web.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Create a response with web search enabled and sources included
response = client.responses.create(
model="gpt-5-mini",
tools=[{"type": "web_search"}],
input="What is the current stock price of Netflix?",
include=["web_search_call.____.____"]
)
# Extract and print sources from web search calls
for item in response.output:
if ____:
print(item.action.sources)
print(response.output_text)