Model blending
Vas a empezar a crear ensembles de modelos con una técnica de blending.
Tu objetivo es entrenar 2 modelos diferentes con los datos de la competición New York City Taxi. Realiza predicciones sobre los datos de test y luego combínalas usando una media aritmética simple.
Los DataFrames train y test ya están disponibles en tu espacio de trabajo. features es una lista de columnas que se usarán para el entrenamiento y también está disponible en tu espacio de trabajo. El nombre de la variable objetivo es "fare_amount".
Este ejercicio forma parte del curso
Cómo ganar una competición de Kaggle con Python
Instrucciones del ejercicio
- Entrena un modelo de Gradient Boosting sobre los datos de train usando la lista
featuresy la columna "fare_amount" como variable objetivo. - Entrena un modelo de Random Forest del mismo modo.
- Realiza predicciones sobre los datos de test usando ambos modelos, Gradient Boosting y Random Forest.
- Calcula la media de las predicciones de ambos modelos.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
from sklearn.ensemble import GradientBoostingRegressor, RandomForestRegressor
# Train a Gradient Boosting model
gb = GradientBoostingRegressor().____(____[features], ____.fare_amount)
# Train a Random Forest model
rf = RandomForestRegressor().____(____[features], ____.fare_amount)
# Make predictions on the test data
test['gb_pred'] = ____.____(test[features])
test['rf_pred'] = ____.____(test[features])
# Find mean of model predictions
test['blend'] = (____[____] + ____[____]) / 2
print(test[['gb_pred', 'rf_pred', 'blend']].head(3))