1. 学习
  2. /
  3. 课程
  4. /
  5. XGBoost で学ぶ極限の勾配ブースティング

Connected

练习

XGBoostでのグリッドサーチ

XGBoostで個々のパラメータを調整する方法を学んだので、次は scikit-learn の GridSearch と RandomizedSearch を内部交差検証付きで行う GridSearchCV と RandomizedSearchCV で、パラメータチューニングを一段引き上げましょう。これらを使って、複数のパラメータにわたる候補値の組み合わせを総当たり的に探索し、最良のモデルを見つけます。まずは GridSearchCV から始めましょう!

说明

100 XP
  • gbm_param_grid というパラメータグリッドを作成し、"colsample_bytree" は値のリスト(0.3、0.7)、"n_estimators" は単一値のリスト(50)、"max_depth" は2つの値のリスト(2、5)を含めます。
  • gbm という名前の XGBRegressor オブジェクトをインスタンス化します。
  • grid_mse という GridSearchCV オブジェクトを作成し、param_grid にパラメータグリッド、estimator に XGBRegressor、scoring に "neg_mean_squared_error"、cv に 4 を指定します。出力を理解しやすくするため、verbose=1 も指定します。
  • GridSearchCV オブジェクトを X と y に適合させます。
  • grid_mse の .best_params_ と .best_score_ 属性を使って、最良のパラメータ値と最小のRMSEをそれぞれ表示します。