CommencerCommencer gratuitement

Entropie et indice de Gini

Dans cet exercice, vous allez comparer la précision de l'ensemble de test de dt_entropy à la précision d'un autre arbre appelé dt_gini. L'arbre dt_gini a été entraîné sur le même ensemble de données en utilisant les mêmes paramètres, à l'exception du critère d'information qui a été fixé à l'indice de Gini en utilisant le mot-clé 'gini'.

X_test, y_test, dt_entropy, ainsi que accuracy_gini qui correspond à la précision de l'ensemble de tests obtenue par dt_gini sont disponibles dans votre espace de travail.

Cet exercice fait partie du cours

Apprentissage automatique avec des modèles arborescents en Python

Afficher le cours

Instructions

  • Importez accuracy_score à partir de sklearn.metrics.
  • Prédire les étiquettes de l'ensemble de test de dt_entropy et attribuer le résultat à y_pred.
  • Évaluez la précision de l'ensemble de test de dt_entropy et attribuez le résultat à accuracy_entropy.
  • Consultez les sites accuracy_entropy et accuracy_gini.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Import accuracy_score from sklearn.metrics
from ____.____ import ____

# Use dt_entropy to predict test set labels
____= ____.____(____)

# Evaluate accuracy_entropy
accuracy_entropy = ____(____, ____)

# Print accuracy_entropy
print(f'Accuracy achieved by using entropy: {accuracy_entropy:.3f}')

# Print accuracy_gini
print(f'Accuracy achieved by using the gini index: {accuracy_gini:.3f}')
Modifier et exécuter le code