Model stacking I
Tijd voor stacking. Om de stacking-aanpak te implementeren, volg je de 6 stappen die we in de vorige video hebben besproken:
- Splits de trainingsdata in twee delen
- Train meerdere modellen op deel 1
- Maak voorspellingen op deel 2
- Maak voorspellingen op de testdata
- Train een nieuw model op deel 2 met de voorspellingen als features
- Maak voorspellingen op de testdata met het model van niveau 2
De DataFrames train en test zijn al beschikbaar in je werkruimte. features is een lijst met kolommen die je gebruikt om te trainen op de data van deel 1 en is ook beschikbaar in je werkruimte. De doelfunctie heet "fare_amount".
Deze oefening maakt deel uit van de cursus
Een Kaggle-competitie winnen met Python
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
from sklearn.model_selection import train_test_split
from sklearn.ensemble import GradientBoostingRegressor, RandomForestRegressor
# Split train data into two parts
part_1, part_2 = ____(train, test_size=____, random_state=123)
# Train a Gradient Boosting model on Part 1
gb = GradientBoostingRegressor().____(____[features], ____.fare_amount)
# Train a Random Forest model on Part 1
rf = RandomForestRegressor().____(____[features], ____.fare_amount)