Punteggio F1
Come hai visto, esiste un compromesso tra precision e recall. Entrambe sono metriche importanti e, a seconda di come l’azienda vuole modellare il churn, potresti voler ottimizzare l’una rispetto all’altra. Spesso, però, gli stakeholder preferiscono una singola metrica che riassuma le prestazioni del modello. L’AUC è una possibilità; un’altra è il punteggio F1, calcolato così:
2 * (precision * recall) / (precision + recall)
Il vantaggio del punteggio F1 è che combina precision e recall in un’unica metrica; un valore F1 elevato indica un modello performante, anche quando le classi sono sbilanciate. In scikit-learn puoi calcolare l’F1 score usando la funzione f1_score.
Questo esercizio fa parte del corso
Marketing Analytics: Prevedere il churn dei clienti in Python
Istruzioni dell'esercizio
- Importa
f1_scoredasklearn.metrics. - Stampa l’F1 score della random forest addestrata.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Instantiate the classifier
clf = RandomForestClassifier()
# Fit to the training data
clf.fit(X_train, y_train)
# Predict the labels of the test set
y_pred = clf.predict(X_test)
# Import f1_score
# Print the F1 score
print(____)