1. Learn
  2. /
  3. Courses
  4. /
  5. Gradient Boosting Cực Mạnh với XGBoost

Connected

Exercise

Cây quyết định làm bộ học cơ sở

Giờ là lúc bạn xây dựng một mô hình XGBoost để dự đoán giá nhà — không phải ở Boston, Massachusetts như trong video, mà ở Ames, Iowa! Bộ dữ liệu giá nhà đã được nạp sẵn vào DataFrame tên df. Nếu bạn khám phá trong Shell, bạn sẽ thấy có nhiều đặc trưng về căn nhà và vị trí của nó trong thành phố.

Trong bài tập này, mục tiêu là dùng cây làm bộ học cơ sở (base learners). Mặc định XGBoost dùng cây làm bộ học cơ sở, nên bạn không cần chỉ định booster="gbtree".

xgboost đã được import với bí danh xgb và các mảng đặc trưng và mục tiêu lần lượt có sẵn trong X và y.

Instructions

100 XP
  • Chia df thành tập huấn luyện và kiểm tra, giữ lại 20% cho kiểm tra. Dùng random_state bằng 123.
  • Khởi tạo XGBRegressor là xg_reg, dùng seed bằng 123. Chỉ định objective là "reg:squarederror" và dùng 10 cây. Lưu ý: Bạn không cần chỉ định booster="gbtree" vì đây là mặc định.
  • Fit xg_reg lên dữ liệu huấn luyện và dự đoán nhãn cho tập kiểm tra. Lưu dự đoán vào biến preds.
  • Tính rmse bằng np.sqrt() và hàm mean_squared_error() từ sklearn.metrics, đã được import sẵn.