IniziaInizia gratis

Calcolare le metriche di accuratezza: precision

Il punteggio di precision (Precision) è una metrica importante per misurare l’accuratezza di un algoritmo di classificazione. Si calcola come la frazione dei Veri Positivi sul totale di Veri Positivi e Falsi Positivi, ovvero $$\frac{\text{# di Veri Positivi}}{\text{# di Veri Positivi} + \text{# di Falsi Positivi}}.$$

  • definiamo Veri Positivi il numero di dipendenti che hanno effettivamente lasciato e che sono stati correttamente classificati come in uscita
  • definiamo Falsi Positivi il numero di dipendenti che in realtà sono rimasti, ma sono stati erroneamente classificati come in uscita

Se non ci sono Falsi Positivi, il punteggio di precision è pari a 1. Se non ci sono Veri Positivi, il punteggio di precision è pari a 0.

In questo esercizio calcoleremo il punteggio di precision (usando la funzione sklearn precision_score) per il nostro modello di classificazione iniziale.

Le variabili features_test e target_test sono disponibili nel tuo workspace.

Questo esercizio fa parte del corso

HR Analytics: prevedere l'abbandono dei dipendenti in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Importa la funzione precision_score dal modulo sklearn.metrics.
  • Usa il modello iniziale per predire il churn (basandoti sulle feature del set di test).
  • Calcola il punteggio di precision confrontando target_test con le predizioni sul set di test.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Import the function to calculate precision score
from sklearn.____ import ____

# Predict whether employees will churn using the test set
prediction = model.____(features_test)

# Calculate precision score by comparing target_test with the prediction
____(target_test, ____)
Modifica ed esegui il codice