Bagging : la méthode scikit-learn
Appliquons maintenant le BaggingClassifier de scikit-learn au jeu de données Pokémon.
Vous avez obtenu un score F1 d’environ 0.63 avec votre ensemble bagging personnalisé.
BaggingClassifier() va-t-il faire mieux ? Voyons cela !
Cet exercice fait partie du cours
Méthodes d’ensemble en Python
Instructions
- Instanciez le modèle de base,
clf_dt: un arbre de décision « restreint » avec une profondeur maximale de 4. - Créez un classificateur de bagging avec l’arbre de décision comme estimateur de base, en utilisant 21 estimateurs.
- Prédisez les étiquettes de l’ensemble de test.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Instantiate the base model
clf_dt = ____
# Build the Bagging classifier
clf_bag = ____(____, ____, random_state=500)
# Fit the Bagging model to the training set
clf_bag.fit(X_train, y_train)
# Predict the labels of the test set
pred = ____
# Show the F1-score
print('F1-Score: {:.3f}'.format(f1_score(y_test, pred)))