Aan de slagGa gratis aan de slag

"Weak" decision tree

In the previous exercise you built two decision trees. Which one is fine-tuned and which one is "weak"?

Decision tree "A":

  • min_samples_leaf = 3 and min_samples_split = 9
  • F1-Score: ~58%

Decision tree "B":

  • max_depth = 4 and max_features = 2
  • F1-Score: ~53%

Both classifiers are available for you as clf_A and clf_B.

Deze oefening maakt deel uit van de cursus

Ensemble Methods in Python

Cursus bekijken

Praktische interactieve oefening

Zet theorie om in actie met een van onze interactieve oefeningen.

Begin met trainen