1. 学ぶ
  2. /
  3. コース
  4. /
  5. Pythonで学ぶ不正検知

Connected

演習

エルボー法

前の演習では、クラスター数を8にして MiniBatch K-means を実装しましたが、適切なクラスター数を実際には確認していませんでした。最初の不正検知アプローチでは、特にクラスターの外れ値を不正の予測として使いたい場合、クラスター数を適切に設定することが重要です。どのクラスター数を使うか決めるために、エルボー法を適用して、この方法に基づく最適なクラスター数を確認してみましょう。

X_scaled は引き続き利用でき、MiniBatchKMeans は sklearn からインポート済みです。

指示

100 XP
  • クラスター数の範囲を 1〜5 に設定します。
  • リスト内包表記を使って、その範囲内のすべてのクラスター数で MiniBatch K-means を実行します。
  • 各モデルをスケーリング済みデータに対して学習し、同じデータからスコアを取得します。
  • クラスター数とそれぞれのスコアをプロットします。実行に数秒かかります。