LoslegenKostenlos loslegen

Feature-Wichtigkeiten visualisieren: Welche Features sind in meinem Datensatz am wichtigsten

Eine weitere Möglichkeit, deine XGBoost-Modelle zu visualisieren, besteht darin, die Bedeutung jeder Feature-Spalte aus dem ursprünglichen Datensatz im Modell zu untersuchen.

Eine einfache Methode ist, zu zählen, wie oft auf jedes Feature über alle Boosting-Runden (Bäume) im Modell gesplittet wird, und das Ergebnis dann als Balkendiagramm zu visualisieren, wobei die Features nach ihrer Häufigkeit sortiert werden. XGBoost hat eine plot_importance()-Funktion, mit der du genau das tun kannst – und in dieser Übung wirst du sie verwenden!

Diese Übung ist Teil des Kurses

Extreme Gradient Boosting mit XGBoost

Kurs anzeigen

Anleitung zur Übung

  • Erstelle wie zuvor deine DMatrix aus X und y.
  • Erstelle ein Parameterdikt mit passendem "objective" ("reg:squarederror") und einer "max_depth" von 4.
  • Trainiere das Modell mit 10 Boosting-Runden, genau wie in der vorherigen Übung.
  • Verwende xgb.plot_importance() und übergib das trainierte Modell, um das Diagramm der Feature-Wichtigkeiten zu erzeugen.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Create the DMatrix: housing_dmatrix
housing_dmatrix = ____

# Create the parameter dictionary: params
params = ____

# Train the model: xg_reg
xg_reg = ____

# Plot the feature importances
____
plt.show()
Code bearbeiten und ausführen