1. 학습
  2. /
  3. 강의
  4. /
  5. Pythonで学ぶアンサンブル手法

Connected

연습 문제

Boosting 対決: Light vs Extreme

CatBoost の性能は比較的良好ですが、別の種類の boosting も試して、"Light" と "Extreme" のどちらがより良い結果を出すか確認してみましょう。

CatBoost はカテゴリ特徴量がある場合に特に有効です。今回はすべての特徴量が数値なので、他の手法のほうが良い結果を出す可能性があります。

今回は回帰モデルを作るので、使用する学習関数を指定する追加パラメータ objective を使います。二乗誤差を適用するには、XGBoost では objective を 'reg:squarederror'、LightGBM では 'mean_squared_error' に設定します。

さらに、XGBoost の計算時間を短縮するために、パラメータ n_jobs も指定します。

注意: 分類器を使わないようにしてください。セッションがタイムアウトする恐れがあります!

지침

100 XP
  • 次のパラメータで XGBRegressor を構築してください: max_depth = 3, learning_rate = 0.1, n_estimators = 100, n_jobs=2。
  • 次のパラメータで LGBMRegressor を構築してください: max_depth = 3, learning_rate = 0.1, n_estimators = 100。