IniziaInizia gratis

Aumentare la fiducia con le fonti degli LLM

Stai creando un assistente per l'analisi finanziaria che deve fornire agli utenti informazioni aggiornate sul mercato azionario. Poiché gli LLM hanno un knowledge cutoff, devi abilitare la ricerca sul web per accedere ai dati in tempo reale. Inoltre, per trasparenza e credibilità, vuoi mostrare agli utenti quali fonti sono state consultate durante la ricerca.

Il client OpenAI è stato inizializzato come client e interrogherai il prezzo attuale delle azioni Netflix.

Questo esercizio fa parte del corso

Lavorare con la Responses API di OpenAI

Visualizza il corso

Istruzioni dell'esercizio

  • Crea una richiesta con ricerca sul web abilitata, assicurandoti di includere le fonti della ricerca sul web nella risposta.
  • Itera tra gli elementi della risposta ed estrai solo quelli con tipo "web_search_call", quindi stampa .sources dall'attributo .action di ciascuna chiamata di ricerca sul web.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Create a response with web search enabled and sources included
response = client.responses.create(
    model="gpt-5-mini",
    tools=[{"type": "web_search"}],
    input="What is the current stock price of Netflix?",
    include=["web_search_call.____.____"]
)

# Extract and print sources from web search calls
for item in response.output:
    if ____:
        print(item.action.sources)
        
print(response.output_text)
Modifica ed esegui il codice