Aire sous la courbe ROC (ROC AUC)
La courbe ROC que vous avez tracée dans le dernier exercice semblait prometteuse.
Vous allez maintenant calculer l’aire sous la courbe ROC, ainsi que les autres métriques de classification que vous avez utilisées précédemment.
Les fonctions confusion_matrix
et classification_report
ont été préchargées pour vous, ainsi que le modèle logreg
que vous avez construit précédemment, plus X_train
, X_test
, y_train
, y_test
. En outre, les étiquettes prédites par le modèle pour l’ensemble de test sont stockées sous y_pred
, et les probabilités des observations de l’ensemble de test appartenant à la classe positive sont stockées sous y_pred_probs
.
Un modèle knn
a également été créé et les métriques de performance ont été affichées dans la console, de sorte que vous pouvez comparer roc_auc_score
, confusion_matrix
et classification_report
entre les deux modèles.
Cet exercice fait partie du cours
Apprentissage supervisé avec scikit-learn
Instructions
- Importez
roc_auc_score
. - Calculez et affichez le score ROC AUC, en passant les étiquettes de test et les probabilités de classe positive prédites.
- Calculez et affichez la matrice de confusion.
- Appelez
classification_report()
.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Import roc_auc_score
____
# Calculate roc_auc_score
print(____(____, ____))
# Calculate the confusion matrix
print(____(____, ____))
# Calculate the classification report
print(____(____, ____))