Terug naar regressie met stacking
In Hoofdstuk 1 behandelden we de app-beoordelingen als een regressieprobleem, waarbij we de beoordeling voorspelden op het interval van 1 tot 5. Tot nu toe in dit hoofdstuk hebben we het als een classificatieprobleem aangepakt, door de beoordeling af te ronden naar het dichtstbijzijnde gehele getal. Om te oefenen met de StackingRegressor gaan we terug naar de regressiebenadering.
Zoals gebruikelijk zijn de invoerkenmerken voor je gestandaardiseerd met een StandardScaler().
De MAE (mean absolute error) is de evaluatiemaatstaf. In Hoofdstuk 1 lag de MAE rond de 0.61. Eens kijken of de stacking-ensemblemethode die fout kan verlagen.
Deze oefening maakt deel uit van de cursus
Ensemblemethoden in Python
Oefeninstructies
- Instantieer een decision tree regressor met:
min_samples_leaf = 11enmin_samples_split = 33. - Instantieer de standaard lineaire regressie.
- Instantieer een
Ridge-regressiemodel metrandom_state = 500. - Bouw en fit een
StackingRegressoren geef deregressorsen demeta_regressordoor.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Instantiate the 1st-layer regressors
reg_dt = ____(____, ____, random_state=500)
reg_lr = ____
reg_ridge = ____
# Instantiate the 2nd-layer regressor
reg_meta = LinearRegression()
# Build the Stacking regressor
reg_stack = ____
reg_stack.____
# Evaluate the performance on the test set using the MAE metric
pred = reg_stack.predict(X_test)
print('MAE: {:.3f}'.format(mean_absolute_error(y_test, pred)))