IniziaInizia gratis

Streaming di eventi semantici

Stai creando un assistente meteo che fornisce previsioni in tempo reale. Il client OpenAI è stato inizializzato e configurato per funzionare con la Responses API. Eseguirai lo streaming di eventi semantici per tracciare quando la risposta inizia, quando i blocchi di testo terminano e quando l'intera risposta è completa. Questo crea un'esperienza utente più coinvolgente mostrando l'avanzamento mentre il modello genera la previsione.

Questo esercizio fa parte del corso

Lavorare con la Responses API di OpenAI

Visualizza il corso

Istruzioni dell'esercizio

  • Gestisci l'evento "response.created" stampando un messaggio di avvio.
  • Gestisci l'evento "response.output_text.done" stampando un messaggio di completamento.
  • Gestisci l'evento "response.completed" stampando l'intero testo della risposta memorizzato in current_text.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

prompt = "Explain how to read a weather forecast in one sentence for a beginner hiker."

with client.responses.create(model="gpt-5-mini", input=prompt, stream=True) as stream:
    for event in stream:
        # Find response created events
        if event.type == "____":
            print("Forecast generation started...\n")

        # Find output text completed events
        elif event.type == "____":
            print("\n--- Forecast complete ---\n")

        # Find response completed events
        elif event.type == "____":
            print(f"\nFull forecast:\n{current_text}")
Modifica ed esegui il codice