1. Học hỏi
  2. /
  3. Khoa Học
  4. /
  5. Làm việc với OpenAI Responses API

Connected

Bài tập

Streaming với Function Calls

Bạn đã thấy có rất nhiều trường hợp sử dụng được mở khóa với LLM hỗ trợ gọi hàm, vốn có các kiểu sự kiện riêng. Điều này hữu ích để cung cấp phản hồi theo thời gian thực cho người dùng khi mô hình đang chuẩn bị gọi một công cụ, hoặc để ghi log theo dõi việc sử dụng công cụ.

Hàm convert_timezone() bạn đã định nghĩa trước đó để chuyển đổi datetime giữa các múi giờ, và một danh sách tools chứa định nghĩa hàm cho Responses API đã được chuẩn bị sẵn cho bạn.

Hướng dẫn

100 XP
  • Hoàn thiện context manager streaming bằng cách gọi client.responses.create() với model "gpt-5-mini", prompt, và danh sách tools.
  • Bên trong vòng lặp, kiểm tra các sự kiện "function_call_arguments.delta".
  • Thêm điều kiện để kiểm tra các sự kiện "function_call_arguments.done".
  • Thêm điều kiện cuối để kiểm tra nếu kiểu sự kiện là "response.completed" và in ra thông báo hoàn tất cuối cùng.