IniziaInizia gratis

Allena modelli XGBoost

Ogni metodo di Machine Learning può potenzialmente overfittare. Lo vedrai in questo esempio con XGBoost. Anche qui stai lavorando alla Store Item Demand Forecasting Challenge. Il DataFrame train è disponibile nel tuo workspace.

Per iniziare, alleniamo più modelli XGBoost con set diversi di iperparametri usando la learning API di XGBoost. L’unico iperparametro che modificherai è:

  • max_depth - profondità massima dell’albero. Aumentare questo valore rende il modello più complesso e più incline all’overfitting.

Questo esercizio fa parte del corso

Vincere una competizione Kaggle con Python

Visualizza il corso

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

import xgboost as xgb

# Create DMatrix on train data
dtrain = xgb.DMatrix(data=train[['store', 'item']],
                     label=train['sales'])

# Define xgboost parameters
params = {'objective': 'reg:linear',
          '____': ____,
          'verbosity': 0}

# Train xgboost model
xg_depth_2 = xgb.train(params=params, dtrain=dtrain)
Modifica ed esegui il codice