CommencerCommencer gratuitement

Calcul du score ROC/AUC

Bien que le score de rappel (Recall) soit un indicateur important pour mesurer la performance d’un algorithme de classification, il accorde trop de poids au nombre de faux négatifs. À l’inverse, la précision (Precision) se concentre sur le nombre de faux positifs.

La combinaison de ces deux mesures via la courbe ROC permet d’évaluer à la fois le rappel et la précision. L’aire sous la courbe ROC se calcule via le score AUC.

Dans cet exercice, vous allez calculer le score ROC/AUC pour le modèle initial en utilisant la fonction roc_auc_score() de sklearn.

Les variables features_test et target_test sont disponibles dans votre espace de travail.

Cet exercice fait partie du cours

Analytique RH : prédire l’attrition des employés en Python

Afficher le cours

Instructions

  • Importez la fonction permettant de calculer le score ROC/AUC.
  • Utilisez le modèle initial pour prédire le churn (à partir des variables de test).
  • Calculez le score ROC/AUC en comparant target_test à la prédiction.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Import the function to calculate ROC/AUC score
from sklearn.____ import ____

# Use initial model to predict churn (based on features_test)
prediction = model.predict(____)

# Calculate ROC/AUC score by comparing target_test with the prediction
____(____, prediction)
Modifier et exécuter le code