1. 学ぶ
  2. /
  3. コース
  4. /
  5. Pythonで学ぶ不正検知

Connected

演習

ロジスティック回帰

この最後のレッスンでは、VotingClassifier を使って 3 つのアルゴリズムを組み合わせた モデルを作成します。これにより各モデルの強みを活かし、全体のパフォーマンスを高めて不正検知数の向上を目指します。最初のモデルであるロジスティック回帰は、最適なランダムフォレストモデルよりわずかに再現率が高い一方、偽陽性が多くなります。さらに、クラス重みをバランスさせた決定木も加えます。データはすでに学習用とテスト用に分割されており、X_train、y_train、X_test、y_test が利用できます。

Voting Classifier が元のモデルをどのように改善できるかを理解するために、まずはロジスティック回帰モデル単体の結果を確認しましょう。

指示

100 XP
  • 不正クラスに対して 1:15 のクラス重みを持つ LogisticRegression モデルを定義します。
  • モデルを学習データにフィットし、予測値を取得します。
  • classification report と confusion matrix を出力します。