1. 学ぶ
  2. /
  3. コース
  4. /
  5. Pythonで学ぶ不正検知

Connected

演習

Voting Classifier の重みを調整する

Voting Classifier を使うと、複数モデルの“良いところ取り”で不正検知の精度を高められることを見てきました。ここでは、各モデルに与える重みを調整してみましょう。重みを上げ下げすることで、他のモデルに対して特定のモデルをどの程度重視するかをコントロールできます。あるモデルの総合性能が他より良い場合でも、他のモデルの長所も組み合わせて、結果をさらに改善したいときに有効です。

この演習ではデータはすでに学習用とテスト用に分割済みで、clf1、clf2、clf3 は前と同様に定義されています。具体的には、それぞれ Logistic Regression、Random Forest、Decision Tree です。

指示

100 XP
  • 2番目の分類器(clf2)の重みを他より強くし、他の分類器に対して 4 対 1 で上乗せするアンサンブル方法を定義してください。
  • 学習用データでモデルを学習し、テスト用データで評価して、アンサンブルモデルから予測 predicted を取得してください。
  • 性能指標を出力してください。これはすでに実行できる状態になっています。