CommencerCommencer gratuitement

Évaluer les classificateurs individuels

Dans cet exercice, vous évaluerez les performances des modèles de la liste classifiers que nous avons définie dans l'exercice précédent. Pour ce faire, vous adapterez chaque classificateur à l'ensemble d'apprentissage et évaluerez sa précision sur l'ensemble de test.

L'ensemble de données est déjà chargé et prétraité pour vous (les caractéristiques numériques sont normalisées) et il est divisé en 70 % de formation et 30 % de test. Les matrices de caractéristiques X_train et X_test, ainsi que les tableaux d'étiquettes y_train et y_test sont disponibles dans votre espace de travail. En outre, nous avons chargé la liste classifiers de l'exercice précédent, ainsi que la fonction accuracy_score() de sklearn.metrics.

Cet exercice fait partie du cours

Apprentissage automatique avec des modèles arborescents en Python

Afficher le cours

Instructions

  • Itérer sur les tuples dans classifiers. Utilisez clf_name et clf comme variables de la boucle for:

    • Ajustez clf à l'ensemble de formation.

    • Prédire les étiquettes de l'ensemble de test de clf et attribuer les résultats à y_pred.

    • Évaluez la précision de l'ensemble de test de clf et imprimez le résultat.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Iterate over the pre-defined list of classifiers
for clf_name, clf in ____:    
 
    # Fit clf to the training set
    ____.____(____, ____)    
   
    # Predict y_pred
    y_pred = ____.____(____)
    
    # Calculate accuracy
    accuracy = ____(____, ____) 
   
    # Evaluate clf's accuracy on the test set
    print('{:s} : {:.3f}'.format(clf_name, accuracy))
Modifier et exécuter le code