AdaBoost optimal nutzen
Wie du gesehen hast, liefert AdaBoost zur Vorhersage von Filmeinnahmen die besten Ergebnisse, wenn Entscheidungsbäume als Basis-Schätzer verwendet werden.
In dieser Übung gibst du einige Parameter an, um noch mehr Leistung herauszuholen. Insbesondere nutzt du eine niedrigere Lernrate, um die Aktualisierung der Hyperparameter gleichmäßiger zu gestalten. Daher sollte die Anzahl der Schätzer erhöht werden. Zusätzlich wurden die folgenden Features zu den Daten hinzugefügt: 'runtime', 'vote_average' und 'vote_count'.
Diese Übung ist Teil des Kurses
Ensemble-Methoden in Python
Anleitung zur Übung
- Erstelle einen
AdaBoostRegressormit100Schätzern und einer Lernrate von0.01. - Fitte
reg_adaauf den Trainingssatz und berechne die Vorhersagen auf dem Testsatz.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Build and fit an AdaBoost regressor
reg_ada = ____(____, ____, random_state=500)
reg_ada.fit(X_train, y_train)
# Calculate the predictions on the test set
pred = ____
# Evaluate the performance using the RMSE
rmse = np.sqrt(mean_squared_error(y_test, pred))
print('RMSE: {:.3f}'.format(rmse))