Calcolare le metriche di accuratezza: precision
Il punteggio di precision (Precision) è una metrica importante per misurare l’accuratezza di un algoritmo di classificazione. Si calcola come la frazione dei Veri Positivi sul totale di Veri Positivi e Falsi Positivi, ovvero $$\frac{\text{# di Veri Positivi}}{\text{# di Veri Positivi} + \text{# di Falsi Positivi}}.$$
- definiamo Veri Positivi il numero di dipendenti che hanno effettivamente lasciato e che sono stati correttamente classificati come in uscita
- definiamo Falsi Positivi il numero di dipendenti che in realtà sono rimasti, ma sono stati erroneamente classificati come in uscita
Se non ci sono Falsi Positivi, il punteggio di precision è pari a 1. Se non ci sono Veri Positivi, il punteggio di precision è pari a 0.
In questo esercizio calcoleremo il punteggio di precision (usando la funzione sklearn precision_score) per il nostro modello di classificazione iniziale.
Le variabili features_test e target_test sono disponibili nel tuo workspace.
Questo esercizio fa parte del corso
HR Analytics: prevedere l'abbandono dei dipendenti in Python
Istruzioni dell'esercizio
- Importa la funzione
precision_scoredal modulosklearn.metrics. - Usa il modello iniziale per predire il churn (basandoti sulle feature del set di test).
- Calcola il punteggio di precision confrontando
target_testcon le predizioni sul set di test.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Import the function to calculate precision score
from sklearn.____ import ____
# Predict whether employees will churn using the test set
prediction = model.____(features_test)
# Calculate precision score by comparing target_test with the prediction
____(target_test, ____)