1. 学ぶ
  2. /
  3. コース
  4. /
  5. Pythonで学ぶMachine Learning面接対策

Connected

演習

勾配ブースティング・アンサンブル

Boostingは、ある予測器の誤差を次の予測器へ順番に引き渡して改善していく手法です。Gradient Boostingは、各イテレーションで弱学習器である分類木を1本ずつ追加しながら、勾配降下法で対数損失を最小化します。回帰に対するGradient Boostingも同様ですが、勾配降下に適用する損失関数として平均二乗誤差などを用います。

この演習では、Gradient Boosting Classifier を作成し、前の演習で作成した Random Forest(正解率は72.5%)と性能を比較します。

loan_data のデータフレームはすでに分割済みで、X_train、X_test、y_train、y_test としてワークスペースに用意されています。

指示1 / 4

undefined XP
    1
    2
    3
    4
  • Gradient Boosting モデルを作成し、混同行列、正解率、適合率、再現率、F1スコアを出力するためのモジュールをインポートしてください。
  • 学習率を 0.01 に設定し、推定器数を50にするように引数を指定して、GB分類器をインスタンス化してください。