Mettiamo tutto insieme
Bene, è il momento di mettere insieme tutto ciò che hai imparato finora! In questo esercizio finale del corso, combinerai il lavoro dei precedenti esercizi in una pipeline XGBoost end-to-end, così da consolidare davvero la tua comprensione del preprocessing e delle pipeline in XGBoost.
Il tuo lavoro degli ultimi 3 esercizi, in cui hai preprocessato i dati e impostato la pipeline, è già stato caricato. Il tuo compito è eseguire una ricerca randomizzata e identificare i migliori iperparametri.
Questo esercizio fa parte del corso
Extreme Gradient Boosting con XGBoost
Istruzioni dell'esercizio
- Definisci la griglia dei parametri per ottimizzare
'clf__learning_rate'(da0.05a1con incrementi di0.05),'clf__max_depth'(da3a10con incrementi di1) e'clf__n_estimators'(da50a200con incrementi di50). - Usando la tua
pipelinecome estimator, esegui unaRandomizedSearchCVa 2 fold conn_iterpari a2. Usa"roc_auc"come metrica e impostaverbosea1per un output più dettagliato. Salva il risultato inrandomized_roc_auc. - Adatta
randomized_roc_aucaXey. - Calcola il punteggio migliore e il modello migliore di
randomized_roc_auc.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Create the parameter grid
gbm_param_grid = {
'____': ____(____, ____, ____),
'____': ____(____, ____, ____),
'____': ____(____, ____, ____)
}
# Perform RandomizedSearchCV
randomized_roc_auc = ____
# Fit the estimator
____
# Compute metrics
print(____)
print(____)