Tout mettre en pratique
Très bien, il est temps de rassembler tout ce que vous avez appris jusqu’ici ! Dans cet exercice final du cours, vous allez combiner votre travail des exercices précédents en un pipeline XGBoost de bout en bout afin de consolider votre compréhension du prétraitement et des pipelines avec XGBoost.
Votre travail des 3 exercices précédents, où vous avez prétraité les données et configuré votre pipeline, a été préchargé. Votre tâche est d’effectuer une recherche aléatoire et d’identifier les meilleurs hyperparamètres.
Cet exercice fait partie du cours
Extreme Gradient Boosting avec XGBoost
Instructions
- Définissez la grille de paramètres pour ajuster
'clf__learning_rate'(de0.05à1par pas de0.05),'clf__max_depth'(de3à10par pas de1) et'clf__n_estimators'(de50à200par pas de50). - En utilisant votre
pipelinecomme estimateur, effectuez unRandomizedSearchCVà 2 plis avecn_iterà2. Utilisez"roc_auc"comme métrique et définissezverboseà1pour un affichage plus détaillé. Stockez le résultat dansrandomized_roc_auc. - Ajustez
randomized_roc_aucsurXety. - Calculez le meilleur score et le meilleur estimateur de
randomized_roc_auc.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Create the parameter grid
gbm_param_grid = {
'____': ____(____, ____, ____),
'____': ____(____, ____, ____),
'____': ____(____, ____, ____)
}
# Perform RandomizedSearchCV
randomized_roc_auc = ____
# Fit the estimator
____
# Compute metrics
print(____)
print(____)