Entraîner des modèles XGBoost
Toute méthode de Machine Learning peut potentiellement sur‑apprendre. Vous allez l’observer ici avec XGBoost. Vous travaillez de nouveau sur le défi Store Item Demand Forecasting. Le DataFrame train est disponible dans votre espace de travail.
Commençons par entraîner plusieurs modèles XGBoost avec différents jeux d’hyperparamètres à l’aide de l’API d’apprentissage de XGBoost. Le seul hyperparamètre que vous allez modifier est :
max_depth: profondeur maximale d’un arbre. L’augmenter rend le modèle plus complexe et plus susceptible de sur‑apprendre.
Cet exercice fait partie du cours
Gagner une compétition Kaggle en Python
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
import xgboost as xgb
# Create DMatrix on train data
dtrain = xgb.DMatrix(data=train[['store', 'item']],
label=train['sales'])
# Define xgboost parameters
params = {'objective': 'reg:linear',
'____': ____,
'verbosity': 0}
# Train xgboost model
xg_depth_2 = xgb.train(params=params, dtrain=dtrain)