Bagging: il modo scikit-learn
Applichiamo ora il BaggingClassifier di scikit-learn al dataset dei Pokémon.
Con il tuo ensemble di bagging personalizzato hai ottenuto un F1 score di circa 0.63.
BaggingClassifier() riuscirà a fare meglio? Scopriamolo!
Questo esercizio fa parte del corso
Metodi Ensemble in Python
Istruzioni dell'esercizio
- Istanzia il modello di base,
clf_dt: un albero di decisione "ristretto" con profondità massima pari a 4. - Costruisci un classificatore bagging con l'albero di decisione come base estimator, usando 21 stimatori.
- Prevedi le etichette del set di test.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Instantiate the base model
clf_dt = ____
# Build the Bagging classifier
clf_bag = ____(____, ____, random_state=500)
# Fit the Bagging model to the training set
clf_bag.fit(X_train, y_train)
# Predict the labels of the test set
pred = ____
# Show the F1-score
print('F1-Score: {:.3f}'.format(f1_score(y_test, pred)))