LoslegenKostenlos loslegen

Skalierung von Fischdaten für die Clusterbildung

Du bekommst ein Array „ samples “, das die Maße von Fischen angibt. Jede Zeile steht für einen einzelnen Fisch. Die Maße, wie zum Beispiel das Gewicht in Gramm, die Länge in Zentimetern und das Verhältnis von Höhe zu Länge in Prozent, haben ganz unterschiedliche Maßstäbe. Um diese Daten effektiv zu gruppieren, musst du diese Merkmale erst standardisieren. In dieser Übung baust du eine Pipeline, um die Daten zu standardisieren und zu gruppieren.

Diese Daten zu den Fischgrößen kommen aus dem Journal of Statistics Education.

Diese Übung ist Teil des Kurses

Unüberwachtes Lernen in Python

Kurs anzeigen

Anleitung zur Übung

  • Importieren:

    • make_pipeline von sklearn.pipeline.

    • StandardScaler von sklearn.preprocessing.

    • KMeans von sklearn.cluster.

  • Erstelle eine Instanz von StandardScaler mit dem Namen scaler.

  • Erstell eine Instanz von „ KMeans ” mit „ 4 ”-Clustern namens „ kmeans ”.

  • Erstell eine Pipeline namens „ pipeline “, die „ scaler “ und „ kmeans “ miteinander verbindet. Dazu musst du sie einfach als Argumente an „ make_pipeline() “ übergeben.

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

# Perform the necessary imports
from ____ import ____
from ____ import ____
from ____ import ____

# Create scaler: scaler
scaler = ____

# Create KMeans instance: kmeans
kmeans = ____

# Create pipeline: pipeline
pipeline = ____
Code bearbeiten und ausführen