Entrena modelos de XGBoost
Cualquier método de Machine Learning puede sobreajustarse. Lo verás en este ejemplo con XGBoost. De nuevo, estás trabajando con el Store Item Demand Forecasting Challenge. El DataFrame train está disponible en tu espacio de trabajo.
Primero, vamos a entrenar varios modelos de XGBoost con distintos conjuntos de hiperparámetros usando la API de aprendizaje de XGBoost. El único hiperparámetro que vas a cambiar es:
max_depth: la profundidad máxima de un árbol. Aumentar este valor hará que el modelo sea más complejo y con mayor probabilidad de sobreajuste.
Este ejercicio forma parte del curso
Cómo ganar una competición de Kaggle con Python
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
import xgboost as xgb
# Create DMatrix on train data
dtrain = xgb.DMatrix(data=train[['store', 'item']],
label=train['sales'])
# Define xgboost parameters
params = {'objective': 'reg:linear',
'____': ____,
'verbosity': 0}
# Train xgboost model
xg_depth_2 = xgb.train(params=params, dtrain=dtrain)