1. เรียนรู้
  2. /
  3. Courses
  4. /
  5. Gradient Boosting Cực Mạnh với XGBoost

Connected

Exercises

Tổng hợp mọi thứ

Đến lúc tổng hợp tất cả những gì bạn đã học! Ở bài tập cuối cùng của khóa học này, bạn sẽ kết hợp phần việc từ các bài trước thành một pipeline XGBoost end-to-end để củng cố hiểu biết về tiền xử lý và pipelines trong XGBoost.

Phần tiền xử lý dữ liệu và thiết lập pipeline từ 3 bài tập trước đã được nạp sẵn. Nhiệm vụ của bạn là thực hiện randomized search và xác định các siêu tham số (hyperparameters) tốt nhất.

คำแนะนำ

100 XP
  • Thiết lập lưới tham số để tinh chỉnh 'clf__learning_rate' (từ 0.05 đến 1 với bước 0.05), 'clf__max_depth' (từ 3 đến 10 với bước 1), và 'clf__n_estimators' (từ 50 đến 200 với bước 50).
  • Dùng pipeline làm estimator, thực hiện RandomizedSearchCV 2-fold với n_iter bằng 2. Dùng "roc_auc" làm thước đo, và đặt verbose là 1 để đầu ra chi tiết hơn. Lưu kết quả vào randomized_roc_auc.
  • Fit randomized_roc_auc với X và y.
  • Tính điểm số tốt nhất và mô hình tốt nhất của randomized_roc_auc.