Calculando métricas de acurácia: precisão
A métrica Precision (precisão) é importante para medir a acurácia de um algoritmo de classificação. Ela é calculada como a fração de Verdadeiros Positivos sobre a soma de Verdadeiros Positivos e Falsos Positivos, ou $$\frac{\text{# de Verdadeiros Positivos}}{\text{# de Verdadeiros Positivos} + \text{# de Falsos Positivos}}.$$
- definimos Verdadeiros Positivos como o número de funcionários que de fato saíram e foram corretamente classificados como saindo
- definimos Falsos Positivos como o número de funcionários que de fato permaneceram, mas foram incorretamente classificados como saindo
Se não houver Falsos Positivos, a precisão é igual a 1. Se não houver Verdadeiros Positivos, a precisão é igual a 0.
Neste exercício, vamos calcular a precisão (usando a função precision_score do sklearn) para nosso modelo de classificação inicial.
As variáveis features_test e target_test estão disponíveis no seu ambiente de trabalho.
Este exercício faz parte do curso
HR Analytics: prevendo rotatividade de funcionários em Python
Instruções do exercício
- Importe a função
precision_scoredo módulosklearn.metrics. - Use o modelo inicial para prever churn (com base nos atributos do conjunto de teste).
- Calcule a precisão comparando
target_testcom as previsões do conjunto de teste.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Import the function to calculate precision score
from sklearn.____ import ____
# Predict whether employees will churn using the test set
prediction = model.____(features_test)
# Calculate precision score by comparing target_test with the prediction
____(target_test, ____)