1. 학습
  2. /
  3. 강의
  4. /
  5. Pythonで学ぶアンサンブル手法

Connected

연습 문제

スタッキングで回帰に戻ろう

第1章では、アプリの評価値を1〜5の連続値として予測する回帰問題として扱いました。今章では、評価値を最も近い整数に丸める分類問題として取り組んできました。ここで StackingRegressor の練習として、再び回帰アプローチに戻ります。 いつもどおり、入力特徴量は StandardScaler() で標準化済みです。

評価指標は MAE(平均絶対誤差)です。第1章では MAE はおよそ 0.61 でした。スタッキング・アンサンブルでこの誤差をさらに小さくできるか試してみましょう。

지침

100 XP
  • 決定木回帰器を次の設定でインスタンス化します:min_samples_leaf = 11、min_samples_split = 33。
  • 既定設定の線形回帰をインスタンス化します。
  • Ridge 回帰モデルを random_state = 500 でインスタンス化します。
  • StackingRegressor を構築して学習し、regressors と meta_regressor を渡します。