Cálculo de métricas de exactitud: precisión
La métrica Precision (precisión) es importante para medir la exactitud de un algoritmo de clasificación. Se calcula como la fracción de Verdaderos Positivos sobre la suma de Verdaderos Positivos y Falsos Positivos, es decir: $$\frac{\text{# de Verdaderos Positivos}}{\text{# de Verdaderos Positivos} + \text{# de Falsos Positivos}}.$$
- definimos Verdaderos Positivos como el número de empleados que realmente se fueron y que fueron clasificados correctamente como que se iban
- definimos Falsos Positivos como el número de empleados que realmente se quedaron, pero fueron clasificados erróneamente como que se iban
Si no hay Falsos Positivos, la precisión es igual a 1. Si no hay Verdaderos Positivos, la precisión es igual a 0.
En este ejercicio, calcularemos la precisión (usando la función precision_score de sklearn) para nuestro modelo de clasificación inicial.
Las variables features_test y target_test están disponibles en tu espacio de trabajo.
Este ejercicio forma parte del curso
Analítica de RR. HH.: Predicción de rotación de empleados en Python
Instrucciones del ejercicio
- Importa la función
precision_scoredel módulosklearn.metrics. - Usa el modelo inicial para predecir el churn (basado en las características del conjunto de prueba).
- Calcula la precisión comparando
target_testcon las predicciones del conjunto de prueba.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Import the function to calculate precision score
from sklearn.____ import ____
# Predict whether employees will churn using the test set
prediction = model.____(features_test)
# Calculate precision score by comparing target_test with the prediction
____(target_test, ____)