LoslegenKostenlos loslegen

AdaBoost optimal nutzen

Wie du gesehen hast, liefert AdaBoost zur Vorhersage von Filmeinnahmen die besten Ergebnisse, wenn Entscheidungsbäume als Basis-Schätzer verwendet werden.

In dieser Übung gibst du einige Parameter an, um noch mehr Leistung herauszuholen. Insbesondere nutzt du eine niedrigere Lernrate, um die Aktualisierung der Hyperparameter gleichmäßiger zu gestalten. Daher sollte die Anzahl der Schätzer erhöht werden. Zusätzlich wurden die folgenden Features zu den Daten hinzugefügt: 'runtime', 'vote_average' und 'vote_count'.

Diese Übung ist Teil des Kurses

Ensemble-Methoden in Python

Kurs anzeigen

Anleitung zur Übung

  • Erstelle einen AdaBoostRegressor mit 100 Schätzern und einer Lernrate von 0.01.
  • Fitte reg_ada auf den Trainingssatz und berechne die Vorhersagen auf dem Testsatz.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Build and fit an AdaBoost regressor
reg_ada = ____(____, ____, random_state=500)
reg_ada.fit(X_train, y_train)

# Calculate the predictions on the test set
pred = ____

# Evaluate the performance using the RMSE
rmse = np.sqrt(mean_squared_error(y_test, pred))
print('RMSE: {:.3f}'.format(rmse))
Code bearbeiten und ausführen