1. Học hỏi
  2. /
  3. Khoa Học
  4. /
  5. Ensemble Methods in Python

Connected

Bài tập

Cuộc thi boosting: Light vs Extreme

Hiệu quả của mô hình CatBoost khá tốt, nhưng hãy thử hai biến thể boosting khác để xem cách nào vượt trội hơn: hướng tiếp cận "Light" hay "Extreme".

CatBoost rất phù hợp khi có đặc trưng phân loại (categorical). Ở đây, tất cả đặc trưng đều là số, vì vậy một trong các cách tiếp cận khác có thể cho kết quả tốt hơn.

Vì chúng ta đang xây dựng các bộ hồi quy, bạn sẽ dùng thêm tham số objective để chỉ định hàm học sử dụng. Để áp dụng squared error, hãy đặt objective là 'reg:squarederror' cho XGBoost và 'mean_squared_error' cho LightGBM.

Ngoài ra, chúng ta sẽ chỉ định tham số n_jobs cho XGBoost để cải thiện thời gian tính toán.

LƯU Ý: cẩn thận đừng dùng classifier, nếu không phiên của bạn có thể hết hạn!

Hướng dẫn

100 XP
  • Xây dựng XGBRegressor với các tham số: max_depth = 3, learning_rate = 0.1, n_estimators = 100, và n_jobs=2.
  • Xây dựng LGBMRegressor với các tham số: max_depth = 3, learning_rate = 0.1, và n_estimators = 100.