CommencerCommencer gratuitement

Arbres de décision restreints et non restreints

Dans cet exercice, nous revenons au jeu de données Pokémon du chapitre précédent. Rappelez-vous que l’objectif est de prédire si un Pokémon est légendaire ou non.

Vous allez construire deux classifieurs à base d’arbre de décision. Dans le premier, vous allez spécifier les paramètres min_samples_leaf et min_samples_split, sans fixer de profondeur maximale, afin que l’arbre puisse se développer pleinement, sans restriction.

Dans le second, vous imposerez des contraintes en limitant la profondeur de l’arbre de décision. En comparant ensuite les deux modèles, vous comprendrez mieux la notion d’apprenant « faible ».

Cet exercice fait partie du cours

Méthodes d’ensemble en Python

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Build unrestricted decision tree
clf = ____
clf.fit(X_train, y_train)

# Predict the labels
pred = clf.predict(X_test)

# Print the confusion matrix
cm = confusion_matrix(y_test, pred)
print('Confusion matrix:\n', cm)

# Print the F1 score
score = f1_score(y_test, pred)
print('F1-Score: {:.3f}'.format(score))
Modifier et exécuter le code