1. 学ぶ
  2. /
  3. コース
  4. /
  5. Pythonで学ぶマーケティングのための機械学習

Connected

演習

最適なクラスター数を見つける

ここでは、誤差二乗和(SSE)の減少が小さくなる地点を見つけるために、elbow(ひじ)法を使って最適なクラスター数を特定します。これは、テストを始める際の妥当なクラスター数を数学的に見積もるうえで重要なステップです。複数の k(クラスター数)について KMeans を実行し、各 k に対する誤差をプロットして、減少が緩やかになる「ひじ」の位置を見極めます。

KMeans は sklearn.cluster から読み込まれており、seaborn は sns、matplotlib.pyplot は plt として読み込まれています。スケーリング済みのデータセットは、pandas の DataFrame として wholesale_scaled_df に読み込まれています。

指示

100 XP
  • 空の sse 辞書を作成します。
  • k を 1 から 11 の範囲で変化させて KMeans を学習し、誤差を sse 辞書に保存します。
  • プロットにタイトルを追加します。
  • X 軸にキー、Y 軸に値をとる散布図を作成し、チャートを表示します。