Allena modelli XGBoost
Ogni metodo di Machine Learning può potenzialmente overfittare. Lo vedrai in questo esempio con XGBoost. Anche qui stai lavorando alla Store Item Demand Forecasting Challenge. Il DataFrame train è disponibile nel tuo workspace.
Per iniziare, alleniamo più modelli XGBoost con set diversi di iperparametri usando la learning API di XGBoost. L’unico iperparametro che modificherai è:
max_depth- profondità massima dell’albero. Aumentare questo valore rende il modello più complesso e più incline all’overfitting.
Questo esercizio fa parte del corso
Vincere una competizione Kaggle con Python
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
import xgboost as xgb
# Create DMatrix on train data
dtrain = xgb.DMatrix(data=train[['store', 'item']],
label=train['sales'])
# Define xgboost parameters
params = {'objective': 'reg:linear',
'____': ____,
'verbosity': 0}
# Train xgboost model
xg_depth_2 = xgb.train(params=params, dtrain=dtrain)