IniziaInizia gratis

Punteggio F1

Come hai visto, esiste un compromesso tra precision e recall. Entrambe sono metriche importanti e, a seconda di come l’azienda vuole modellare il churn, potresti voler ottimizzare l’una rispetto all’altra. Spesso, però, gli stakeholder preferiscono una singola metrica che riassuma le prestazioni del modello. L’AUC è una possibilità; un’altra è il punteggio F1, calcolato così:

2 * (precision * recall) / (precision + recall)

Il vantaggio del punteggio F1 è che combina precision e recall in un’unica metrica; un valore F1 elevato indica un modello performante, anche quando le classi sono sbilanciate. In scikit-learn puoi calcolare l’F1 score usando la funzione f1_score.

Questo esercizio fa parte del corso

Marketing Analytics: Prevedere il churn dei clienti in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Importa f1_score da sklearn.metrics.
  • Stampa l’F1 score della random forest addestrata.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Instantiate the classifier
clf = RandomForestClassifier()

# Fit to the training data
clf.fit(X_train, y_train)

# Predict the labels of the test set
y_pred = clf.predict(X_test)

# Import f1_score


# Print the F1 score
print(____)
Modifica ed esegui il codice