ComenzarEmpieza gratis

Calcular la puntuación ROC/AUC

Aunque la puntuación Recall es una métrica importante para medir la precisión de un algoritmo de clasificación, da demasiado peso al número de falsos negativos. Por otro lado, Precision se centra en el número de falsos positivos.

La combinación de ambas en la curva ROC permite medir tanto el recall como la precisión. El área bajo la curva ROC se calcula como la puntuación AUC.

En este ejercicio, vas a calcular la puntuación ROC/AUC para el modelo inicial usando la función roc_auc_score() de sklearn.

Las variables features_test y target_test están disponibles en tu espacio de trabajo.

Este ejercicio forma parte del curso

Analítica de RR. HH.: Predicción de rotación de empleados en Python

Ver curso

Instrucciones del ejercicio

  • Importa la función para calcular la puntuación ROC/AUC.
  • Usa el modelo inicial para predecir el churn (basado en las características del conjunto de prueba).
  • Calcula la puntuación ROC/AUC comparando target_test con la predicción.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Import the function to calculate ROC/AUC score
from sklearn.____ import ____

# Use initial model to predict churn (based on features_test)
prediction = model.predict(____)

# Calculate ROC/AUC score by comparing target_test with the prediction
____(____, prediction)
Editar y ejecutar código