Aan de slagGa gratis aan de slag

Entropie als criterium gebruiken

In deze oefening train je een classificatieboom op de Wisconsin Breast Cancer-gegevensset met entropie als informatiecriterium. Je gebruikt hiervoor alle 30 features in de gegevensset, die is opgesplitst in 80% train en 20% test.

X_train en de array met labels y_train zijn beschikbaar in je werkruimte.

Deze oefening maakt deel uit van de cursus

Machine Learning met boomgebaseerde modellen in Python

Cursus bekijken

Oefeninstructies

  • Importeer DecisionTreeClassifier uit sklearn.tree.

  • Maak een DecisionTreeClassifier dt_entropy met een maximale diepte van 8.

  • Stel het informatiecriterium in op 'entropy'.

  • Fit dt_entropy op de trainingsset.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Import DecisionTreeClassifier from sklearn.tree
from ____.____ import ____

# Instantiate dt_entropy, set 'entropy' as the information criterion
dt_entropy = ____(____=____, ____='____', random_state=1)

# Fit dt_entropy to the training set
____.____(____, ____)
Code bewerken en uitvoeren