Treine modelos XGBoost
Todo método de Machine Learning pode potencialmente sofrer overfitting. Você verá isso neste exemplo com XGBoost. Novamente, você está trabalhando no Store Item Demand Forecasting Challenge. O DataFrame train está disponível no seu workspace.
Primeiro, vamos treinar vários modelos XGBoost com diferentes conjuntos de hiperparâmetros usando a API de aprendizado do XGBoost. O único hiperparâmetro que você vai mudar é:
max_depth- profundidade máxima de uma árvore. Aumentar esse valor deixa o modelo mais complexo e mais propenso a overfitting.
Este exercício faz parte do curso
Vencendo uma competição do Kaggle em Python
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
import xgboost as xgb
# Create DMatrix on train data
dtrain = xgb.DMatrix(data=train[['store', 'item']],
label=train['sales'])
# Define xgboost parameters
params = {'objective': 'reg:linear',
'____': ____,
'verbosity': 0}
# Train xgboost model
xg_depth_2 = xgb.train(params=params, dtrain=dtrain)