Calcul du score ROC/AUC
Bien que le score de rappel (Recall) soit un indicateur important pour mesurer la performance d’un algorithme de classification, il accorde trop de poids au nombre de faux négatifs. À l’inverse, la précision (Precision) se concentre sur le nombre de faux positifs.
La combinaison de ces deux mesures via la courbe ROC permet d’évaluer à la fois le rappel et la précision. L’aire sous la courbe ROC se calcule via le score AUC.
Dans cet exercice, vous allez calculer le score ROC/AUC pour le modèle initial en utilisant la fonction roc_auc_score() de sklearn.
Les variables features_test et target_test sont disponibles dans votre espace de travail.
Cet exercice fait partie du cours
Analytique RH : prédire l’attrition des employés en Python
Instructions
- Importez la fonction permettant de calculer le score ROC/AUC.
- Utilisez le modèle initial pour prédire le churn (à partir des variables de test).
- Calculez le score ROC/AUC en comparant
target_testà la prédiction.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Import the function to calculate ROC/AUC score
from sklearn.____ import ____
# Use initial model to predict churn (based on features_test)
prediction = model.predict(____)
# Calculate ROC/AUC score by comparing target_test with the prediction
____(____, prediction)