Beperkte en onbeperkte beslisbomen
In deze oefening gebruiken we opnieuw de Pokémon-gegevensset uit het vorige hoofdstuk. Het doel is om te voorspellen of een gegeven Pokémon legendarisch is of niet.
Je bouwt hier twee aparte decision tree-classifiers. In de eerste geef je de parameters min_samples_leaf en min_samples_split op, maar geen maximale diepte, zodat de boom zich volledig kan ontwikkelen zonder beperkingen.
In de tweede leg je beperkingen op door de diepte van de beslisboom te beperken. Door de twee modellen daarna te vergelijken, krijg je een beter begrip van het idee van een "zwakke" learner.
Deze oefening maakt deel uit van de cursus
Ensemblemethoden in Python
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Build unrestricted decision tree
clf = ____
clf.fit(X_train, y_train)
# Predict the labels
pred = clf.predict(X_test)
# Print the confusion matrix
cm = confusion_matrix(y_test, pred)
print('Confusion matrix:\n', cm)
# Print the F1 score
score = f1_score(y_test, pred)
print('F1-Score: {:.3f}'.format(score))