Entropie als criterium gebruiken
In deze oefening train je een classificatieboom op de Wisconsin Breast Cancer-gegevensset met entropie als informatiecriterium. Je gebruikt hiervoor alle 30 features in de gegevensset, die is opgesplitst in 80% train en 20% test.
X_train en de array met labels y_train zijn beschikbaar in je werkruimte.
Deze oefening maakt deel uit van de cursus
Machine Learning met boomgebaseerde modellen in Python
Oefeninstructies
Importeer
DecisionTreeClassifieruitsklearn.tree.Maak een
DecisionTreeClassifierdt_entropymet een maximale diepte van 8.Stel het informatiecriterium in op
'entropy'.Fit
dt_entropyop de trainingsset.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Import DecisionTreeClassifier from sklearn.tree
from ____.____ import ____
# Instantiate dt_entropy, set 'entropy' as the information criterion
dt_entropy = ____(____=____, ____='____', random_state=1)
# Fit dt_entropy to the training set
____.____(____, ____)