Skalierung von Fischdaten für die Clusterbildung
Du bekommst ein Array „ samples
“, das die Maße von Fischen angibt. Jede Zeile steht für einen einzelnen Fisch. Die Maße, wie zum Beispiel das Gewicht in Gramm, die Länge in Zentimetern und das Verhältnis von Höhe zu Länge in Prozent, haben ganz unterschiedliche Maßstäbe. Um diese Daten effektiv zu gruppieren, musst du diese Merkmale erst standardisieren. In dieser Übung baust du eine Pipeline, um die Daten zu standardisieren und zu gruppieren.
Diese Daten zu den Fischgrößen kommen aus dem Journal of Statistics Education.
Diese Übung ist Teil des Kurses
Unüberwachtes Lernen in Python
Anleitung zur Übung
Importieren:
make_pipeline
vonsklearn.pipeline
.StandardScaler
vonsklearn.preprocessing
.KMeans
vonsklearn.cluster
.
Erstelle eine Instanz von
StandardScaler
mit dem Namenscaler
.Erstell eine Instanz von „
KMeans
” mit „4
”-Clustern namens „kmeans
”.Erstell eine Pipeline namens „
pipeline
“, die „scaler
“ und „kmeans
“ miteinander verbindet. Dazu musst du sie einfach als Argumente an „make_pipeline()
“ übergeben.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Perform the necessary imports
from ____ import ____
from ____ import ____
from ____ import ____
# Create scaler: scaler
scaler = ____
# Create KMeans instance: kmeans
kmeans = ____
# Create pipeline: pipeline
pipeline = ____