ComenzarEmpieza gratis

Model blending

Vas a empezar a crear ensembles de modelos con una técnica de blending.

Tu objetivo es entrenar 2 modelos diferentes con los datos de la competición New York City Taxi. Realiza predicciones sobre los datos de test y luego combínalas usando una media aritmética simple.

Los DataFrames train y test ya están disponibles en tu espacio de trabajo. features es una lista de columnas que se usarán para el entrenamiento y también está disponible en tu espacio de trabajo. El nombre de la variable objetivo es "fare_amount".

Este ejercicio forma parte del curso

Cómo ganar una competición de Kaggle con Python

Ver curso

Instrucciones del ejercicio

  • Entrena un modelo de Gradient Boosting sobre los datos de train usando la lista features y la columna "fare_amount" como variable objetivo.
  • Entrena un modelo de Random Forest del mismo modo.
  • Realiza predicciones sobre los datos de test usando ambos modelos, Gradient Boosting y Random Forest.
  • Calcula la media de las predicciones de ambos modelos.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

from sklearn.ensemble import GradientBoostingRegressor, RandomForestRegressor

# Train a Gradient Boosting model
gb = GradientBoostingRegressor().____(____[features], ____.fare_amount)

# Train a Random Forest model
rf = RandomForestRegressor().____(____[features], ____.fare_amount)

# Make predictions on the test data
test['gb_pred'] = ____.____(test[features])
test['rf_pred'] = ____.____(test[features])

# Find mean of model predictions
test['blend'] = (____[____] + ____[____]) / 2
print(test[['gb_pred', 'rf_pred', 'blend']].head(3))
Editar y ejecutar código