1. 学习
  2. /
  3. 课程
  4. /
  5. Pythonで挑むKaggleコンペティション

Connected

练习

モデルスタッキング II

では、これまでにスタッキング実装で行ったことを振り返りましょう。

  1. 学習データを2つに分割した
  2. パート1に対して複数のモデルを学習した
  3. パート2に対して予測を作成した
  4. テストデータに対して予測を作成した

次の目標は、手順3と4で得た予測を特徴量として用い、第二レベルのモデルを作成することです。つまり、このモデルはパート2のデータで学習し、その後テストデータに対してスタッキングの予測を行えます。

part_2 と test の各DataFrameはワークスペースに用意されています。Gradient Boosting と Random Forest の予測は、各DataFrame内でそれぞれ "gbpred" と "rfpred" という列名で保存されています。

说明

100 XP
  • Gradient Boosting と Random Forest の予測を特徴量として用い、パート2のデータで Linear Regression モデルを学習してください。
  • 同じく Gradient Boosting と Random Forest の予測を特徴量として用い、テストデータに対して予測を作成してください。