Aan de slagGa gratis aan de slag

Terug naar regressie met stacking

In Hoofdstuk 1 behandelden we de app-beoordelingen als een regressieprobleem, waarbij we de beoordeling voorspelden op het interval van 1 tot 5. Tot nu toe in dit hoofdstuk hebben we het als een classificatieprobleem aangepakt, door de beoordeling af te ronden naar het dichtstbijzijnde gehele getal. Om te oefenen met de StackingRegressor gaan we terug naar de regressiebenadering. Zoals gebruikelijk zijn de invoerkenmerken voor je gestandaardiseerd met een StandardScaler().

De MAE (mean absolute error) is de evaluatiemaatstaf. In Hoofdstuk 1 lag de MAE rond de 0.61. Eens kijken of de stacking-ensemblemethode die fout kan verlagen.

Deze oefening maakt deel uit van de cursus

Ensemblemethoden in Python

Cursus bekijken

Oefeninstructies

  • Instantieer een decision tree regressor met: min_samples_leaf = 11 en min_samples_split = 33.
  • Instantieer de standaard lineaire regressie.
  • Instantieer een Ridge-regressiemodel met random_state = 500.
  • Bouw en fit een StackingRegressor en geef de regressors en de meta_regressor door.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Instantiate the 1st-layer regressors
reg_dt = ____(____, ____, random_state=500)
reg_lr = ____
reg_ridge = ____

# Instantiate the 2nd-layer regressor
reg_meta = LinearRegression()

# Build the Stacking regressor
reg_stack = ____
reg_stack.____

# Evaluate the performance on the test set using the MAE metric
pred = reg_stack.predict(X_test)
print('MAE: {:.3f}'.format(mean_absolute_error(y_test, pred)))
Code bewerken en uitvoeren