1. 学ぶ
  2. /
  3. コース
  4. /
  5. Pythonで学ぶMachine Learning面接対策

Connected

演習

ブートストラップ集約(バギング)

前のレッスンでは、特徴量エンジニアリングを行ったデータにロジスティック回帰を適用し、分類モデルに少し触れました。Machine Learning の面接では、弱学習器を組み合わせて精度を高める強力な学習器を作るアンサンブルモデルについて知っておくと役に立つことがあります。

この演習では、置換ありのサンプリング手法を用いてランダム性を保ち、過学習を抑えるバギング分類器から始めます。動画の演習で見た sklearn.ensemble モジュールの関数を使用します。

必要なパッケージはすべてインポート済みです: pandas を pd、sklearn.model_selection から train_test_split、sklearn.metrics から accuracy_score、sklearn.linear_model から LogisticRegression、そして sklearn.ensemble から BaggingClassifier と AdaBoostClassifier。

loan_data の DataFrame はすでに X_train、X_test、y_train、y_test に分割されています。

指示1 / 4

undefined XP
    1
    2
    3
    4
  • 動画の演習で紹介した関数を使ってバギング分類器をインスタンス化し、推定器を 50 個に設定してください。