1. सीखें
  2. /
  3. पाठ्यक्रम
  4. /
  5. XGBoost で学ぶ極限の勾配ブースティング

Connected

अभ्यास

ベース学習器としての決定木

それでは、XGBoost モデルを使って住宅価格を予測してみましょう。動画で見た Boston, Massachusetts ではなく、Iowa 州 Ames のデータです!住宅価格のデータセットは df という DataFrame に事前に読み込まれています。シェルで中身を確認すると、家そのものや都市内の立地に関するさまざまな特徴量があることがわかります。

この演習では、ベース学習器として木を使うことが目標です。既定では XGBoost は木をベース学習器として使うため、ここで booster="gbtree" を指定する必要はありません。

xgboost は xgb としてインポート済みで、特徴量と目的変数の配列はそれぞれ X と y に用意されています。

निर्देश

100 XP
  • df を訓練用とテスト用に分割し、テスト用に 20% を確保します。random_state は 123 を使用してください。
  • XGBRegressor を xg_reg としてインスタンス化し、seed は 123、objective は "reg:squarederror"、木の本数は 10 にします。注意: 既定で booster="gbtree" なので、指定は不要です。
  • 学習データに xg_reg を適合させ、テストセットのラベルを予測します。予測結果は preds という変数に保存してください。
  • sklearn.metrics から事前にインポートされている mean_squared_error() と np.sqrt() を使って rmse を計算します。