Feature-Wichtigkeiten visualisieren: Welche Features sind in meinem Datensatz am wichtigsten
Eine weitere Möglichkeit, deine XGBoost-Modelle zu visualisieren, besteht darin, die Bedeutung jeder Feature-Spalte aus dem ursprünglichen Datensatz im Modell zu untersuchen.
Eine einfache Methode ist, zu zählen, wie oft auf jedes Feature über alle Boosting-Runden (Bäume) im Modell gesplittet wird, und das Ergebnis dann als Balkendiagramm zu visualisieren, wobei die Features nach ihrer Häufigkeit sortiert werden. XGBoost hat eine plot_importance()-Funktion, mit der du genau das tun kannst – und in dieser Übung wirst du sie verwenden!
Diese Übung ist Teil des Kurses
Extreme Gradient Boosting mit XGBoost
Anleitung zur Übung
- Erstelle wie zuvor deine
DMatrixausXundy. - Erstelle ein Parameterdikt mit passendem
"objective"("reg:squarederror") und einer"max_depth"von4. - Trainiere das Modell mit
10Boosting-Runden, genau wie in der vorherigen Übung. - Verwende
xgb.plot_importance()und übergib das trainierte Modell, um das Diagramm der Feature-Wichtigkeiten zu erzeugen.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Create the DMatrix: housing_dmatrix
housing_dmatrix = ____
# Create the parameter dictionary: params
params = ____
# Train the model: xg_reg
xg_reg = ____
# Plot the feature importances
____
plt.show()