CommencerCommencer gratuitement

Bagging : la méthode scikit-learn

Appliquons maintenant le BaggingClassifier de scikit-learn au jeu de données Pokémon.

Vous avez obtenu un score F1 d’environ 0.63 avec votre ensemble bagging personnalisé.

BaggingClassifier() va-t-il faire mieux ? Voyons cela !

Cet exercice fait partie du cours

Méthodes d’ensemble en Python

Afficher le cours

Instructions

  • Instanciez le modèle de base, clf_dt : un arbre de décision « restreint » avec une profondeur maximale de 4.
  • Créez un classificateur de bagging avec l’arbre de décision comme estimateur de base, en utilisant 21 estimateurs.
  • Prédisez les étiquettes de l’ensemble de test.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Instantiate the base model
clf_dt = ____

# Build the Bagging classifier
clf_bag = ____(____, ____, random_state=500)

# Fit the Bagging model to the training set
clf_bag.fit(X_train, y_train)

# Predict the labels of the test set
pred = ____

# Show the F1-score
print('F1-Score: {:.3f}'.format(f1_score(y_test, pred)))
Modifier et exécuter le code