LoslegenKostenlos loslegen

Baumbasierte AdaBoost-Regression

AdaBoost-Modelle werden üblicherweise mit Entscheidungsbäumen als Basis-Schätzern aufgebaut. Probieren wir das jetzt aus und schauen, ob sich die Modellleistung weiter verbessert.

Wir verwenden wie zuvor zwölf Schätzer, um fair zu vergleichen. Du musst den Entscheidungsbaum nicht instanziieren, da er standardmäßig der Basis-Schätzer ist.

Diese Übung ist Teil des Kurses

Ensemble-Methoden in Python

Kurs anzeigen

Anleitung zur Übung

  • Erstelle und fitte einen AdaBoostRegressor mit 12 Schätzern. Du musst keinen Basis-Schätzer angeben.
  • Berechne die Vorhersagen auf dem Testdatensatz.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Build and fit a tree-based AdaBoost regressor
reg_ada = ____(____, random_state=500)
reg_ada.fit(X_train, y_train)

# Calculate the predictions on the test set
pred = ____

# Evaluate the performance using the RMSE
rmse = np.sqrt(mean_squared_error(y_test, pred))
print('RMSE: {:.3f}'.format(rmse))
Code bearbeiten und ausführen