Aan de slagGa gratis aan de slag

Model stacking I

Tijd voor stacking. Om de stacking-aanpak te implementeren, volg je de 6 stappen die we in de vorige video hebben besproken:

  1. Splits de trainingsdata in twee delen
  2. Train meerdere modellen op deel 1
  3. Maak voorspellingen op deel 2
  4. Maak voorspellingen op de testdata
  5. Train een nieuw model op deel 2 met de voorspellingen als features
  6. Maak voorspellingen op de testdata met het model van niveau 2

De DataFrames train en test zijn al beschikbaar in je werkruimte. features is een lijst met kolommen die je gebruikt om te trainen op de data van deel 1 en is ook beschikbaar in je werkruimte. De doelfunctie heet "fare_amount".

Deze oefening maakt deel uit van de cursus

Een Kaggle-competitie winnen met Python

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

from sklearn.model_selection import train_test_split
from sklearn.ensemble import GradientBoostingRegressor, RandomForestRegressor

# Split train data into two parts
part_1, part_2 = ____(train, test_size=____, random_state=123)

# Train a Gradient Boosting model on Part 1
gb = GradientBoostingRegressor().____(____[features], ____.fare_amount)

# Train a Random Forest model on Part 1
rf = RandomForestRegressor().____(____[features], ____.fare_amount)
Code bewerken en uitvoeren