De out-of-bag-score controleren
Laten we nu de out-of-bag-score bekijken voor het model uit de vorige oefening.
Tot nu toe heb je de F1-score gebruikt om de prestaties te meten. In deze oefening gebruik je echter de accuracy-score, zodat je die makkelijk kunt vergelijken met de out-of-bag-score.
De decision tree-classifier uit de vorige oefening, clf_dt, is beschikbaar in je werkruimte.
De pokemon-gegevensset is al voor je geladen en opgesplitst in train- en testsets.
Daarnaast is de decision tree-classifier getraind en beschikbaar als clf_dt, zodat je die als base estimator kunt gebruiken.
Deze oefening maakt deel uit van de cursus
Ensemblemethoden in Python
Oefeninstructies
- Bouw de bagging-classifier met de decision tree als base estimator en 21 estimators. Gebruik dit keer de out-of-bag-score door een argument op te geven voor de parameter
oob_score. - Print de out-of-bag-score van de classifier.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Build and train the bagging classifier
clf_bag = ____(
____,
____,
____,
random_state=500)
clf_bag.fit(X_train, y_train)
# Print the out-of-bag score
print('OOB-Score: {:.3f}'.format(____))
# Evaluate the performance on the test set to compare
pred = clf_bag.predict(X_test)
print('Accuracy: {:.3f}'.format(accuracy_score(y_test, pred)))