1. Học hỏi
  2. /
  3. Khoa Học
  4. /
  5. Gradient Boosting Cực Mạnh với XGBoost

Connected

Bài tập

Dùng regularization trong XGBoost

Sau khi xem ví dụ về l1 regularization trong video, giờ bạn sẽ thay đổi mức phạt l2 regularization - còn gọi là "lambda" - và quan sát ảnh hưởng của nó đến hiệu năng tổng thể của mô hình trên tập dữ liệu giá nhà Ames.

Hướng dẫn

100 XP
  • Tạo DMatrix từ X và y như trước.
  • Tạo một từ điển tham số ban đầu với "objective" là "reg:squarederror" và "max_depth" là 3.
  • Dùng xgb.cv() bên trong một vòng lặp for và thay đổi có hệ thống giá trị "lambda" bằng cách truyền vào giá trị l2 hiện tại (reg).
  • Thêm giá trị "test-rmse-mean" từ vòng boosting cuối cùng cho mỗi mô hình xgboost được cross-validate.
  • Nhấn "Gửi câu trả lời" để xem kết quả. Bạn nhận thấy điều gì?