Baumbasierte AdaBoost-Regression
AdaBoost-Modelle werden üblicherweise mit Entscheidungsbäumen als Basis-Schätzern aufgebaut. Probieren wir das jetzt aus und schauen, ob sich die Modellleistung weiter verbessert.
Wir verwenden wie zuvor zwölf Schätzer, um fair zu vergleichen. Du musst den Entscheidungsbaum nicht instanziieren, da er standardmäßig der Basis-Schätzer ist.
Diese Übung ist Teil des Kurses
Ensemble-Methoden in Python
Anleitung zur Übung
- Erstelle und fitte einen
AdaBoostRegressormit12Schätzern. Du musst keinen Basis-Schätzer angeben. - Berechne die Vorhersagen auf dem Testdatensatz.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Build and fit a tree-based AdaBoost regressor
reg_ada = ____(____, random_state=500)
reg_ada.fit(X_train, y_train)
# Calculate the predictions on the test set
pred = ____
# Evaluate the performance using the RMSE
rmse = np.sqrt(mean_squared_error(y_test, pred))
print('RMSE: {:.3f}'.format(rmse))