Streaming di eventi semantici
Stai creando un assistente meteo che fornisce previsioni in tempo reale. Il client OpenAI è stato inizializzato e configurato per funzionare con la Responses API. Eseguirai lo streaming di eventi semantici per tracciare quando la risposta inizia, quando i blocchi di testo terminano e quando l'intera risposta è completa. Questo crea un'esperienza utente più coinvolgente mostrando l'avanzamento mentre il modello genera la previsione.
Questo esercizio fa parte del corso
Lavorare con la Responses API di OpenAI
Istruzioni dell'esercizio
- Gestisci l'evento
"response.created"stampando un messaggio di avvio. - Gestisci l'evento
"response.output_text.done"stampando un messaggio di completamento. - Gestisci l'evento
"response.completed"stampando l'intero testo della risposta memorizzato incurrent_text.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
prompt = "Explain how to read a weather forecast in one sentence for a beginner hiker."
with client.responses.create(model="gpt-5-mini", input=prompt, stream=True) as stream:
for event in stream:
# Find response created events
if event.type == "____":
print("Forecast generation started...\n")
# Find output text completed events
elif event.type == "____":
print("\n--- Forecast complete ---\n")
# Find response completed events
elif event.type == "____":
print(f"\nFull forecast:\n{current_text}")