Calcular la puntuación ROC/AUC
Aunque la puntuación Recall es una métrica importante para medir la precisión de un algoritmo de clasificación, da demasiado peso al número de falsos negativos. Por otro lado, Precision se centra en el número de falsos positivos.
La combinación de ambas en la curva ROC permite medir tanto el recall como la precisión. El área bajo la curva ROC se calcula como la puntuación AUC.
En este ejercicio, vas a calcular la puntuación ROC/AUC para el modelo inicial usando la función roc_auc_score() de sklearn.
Las variables features_test y target_test están disponibles en tu espacio de trabajo.
Este ejercicio forma parte del curso
Analítica de RR. HH.: Predicción de rotación de empleados en Python
Instrucciones del ejercicio
- Importa la función para calcular la puntuación ROC/AUC.
- Usa el modelo inicial para predecir el churn (basado en las características del conjunto de prueba).
- Calcula la puntuación ROC/AUC comparando
target_testcon la predicción.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Import the function to calculate ROC/AUC score
from sklearn.____ import ____
# Use initial model to predict churn (based on features_test)
prediction = model.predict(____)
# Calculate ROC/AUC score by comparing target_test with the prediction
____(____, prediction)