CommencerCommencer gratuitement

Tout mettre en pratique

Très bien, il est temps de rassembler tout ce que vous avez appris jusqu’ici ! Dans cet exercice final du cours, vous allez combiner votre travail des exercices précédents en un pipeline XGBoost de bout en bout afin de consolider votre compréhension du prétraitement et des pipelines avec XGBoost.

Votre travail des 3 exercices précédents, où vous avez prétraité les données et configuré votre pipeline, a été préchargé. Votre tâche est d’effectuer une recherche aléatoire et d’identifier les meilleurs hyperparamètres.

Cet exercice fait partie du cours

Extreme Gradient Boosting avec XGBoost

Afficher le cours

Instructions

  • Définissez la grille de paramètres pour ajuster 'clf__learning_rate' (de 0.05 à 1 par pas de 0.05), 'clf__max_depth' (de 3 à 10 par pas de 1) et 'clf__n_estimators' (de 50 à 200 par pas de 50).
  • En utilisant votre pipeline comme estimateur, effectuez un RandomizedSearchCV à 2 plis avec n_iter à 2. Utilisez "roc_auc" comme métrique et définissez verbose à 1 pour un affichage plus détaillé. Stockez le résultat dans randomized_roc_auc.
  • Ajustez randomized_roc_auc sur X et y.
  • Calculez le meilleur score et le meilleur estimateur de randomized_roc_auc.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Create the parameter grid
gbm_param_grid = {
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____)
}

# Perform RandomizedSearchCV
randomized_roc_auc = ____

# Fit the estimator
____

# Compute metrics
print(____)
print(____)
Modifier et exécuter le code