ComenzarEmpieza gratis

Entrena modelos de XGBoost

Cualquier método de Machine Learning puede sobreajustarse. Lo verás en este ejemplo con XGBoost. De nuevo, estás trabajando con el Store Item Demand Forecasting Challenge. El DataFrame train está disponible en tu espacio de trabajo.

Primero, vamos a entrenar varios modelos de XGBoost con distintos conjuntos de hiperparámetros usando la API de aprendizaje de XGBoost. El único hiperparámetro que vas a cambiar es:

  • max_depth: la profundidad máxima de un árbol. Aumentar este valor hará que el modelo sea más complejo y con mayor probabilidad de sobreajuste.

Este ejercicio forma parte del curso

Cómo ganar una competición de Kaggle con Python

Ver curso

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

import xgboost as xgb

# Create DMatrix on train data
dtrain = xgb.DMatrix(data=train[['store', 'item']],
                     label=train['sales'])

# Define xgboost parameters
params = {'objective': 'reg:linear',
          '____': ____,
          'verbosity': 0}

# Train xgboost model
xg_depth_2 = xgb.train(params=params, dtrain=dtrain)
Editar y ejecutar código