IniziaInizia gratis

Bagging: il modo scikit-learn

Applichiamo ora il BaggingClassifier di scikit-learn al dataset dei Pokémon.

Con il tuo ensemble di bagging personalizzato hai ottenuto un F1 score di circa 0.63.

BaggingClassifier() riuscirà a fare meglio? Scopriamolo!

Questo esercizio fa parte del corso

Metodi Ensemble in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Istanzia il modello di base, clf_dt: un albero di decisione "ristretto" con profondità massima pari a 4.
  • Costruisci un classificatore bagging con l'albero di decisione come base estimator, usando 21 stimatori.
  • Prevedi le etichette del set di test.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Instantiate the base model
clf_dt = ____

# Build the Bagging classifier
clf_bag = ____(____, ____, random_state=500)

# Fit the Bagging model to the training set
clf_bag.fit(X_train, y_train)

# Predict the labels of the test set
pred = ____

# Show the F1-score
print('F1-Score: {:.3f}'.format(f1_score(y_test, pred)))
Modifica ed esegui il codice