IniziaInizia gratis

ROC AUC

La curva ROC che hai tracciato nell'ultimo esercizio sembrava promettente.

Ora calcolerai l'area sotto la curva ROC, insieme alle altre metriche di classificazione che hai usato in precedenza.

Le funzioni confusion_matrix e classification_report sono state precaricate per te, insieme al modello logreg che hai costruito in precedenza, oltre a X_train, X_test, y_train, y_test. Inoltre, le etichette del test set previste dal modello sono memorizzate come y_pred e le probabilità delle osservazioni del test set appartenenti alla classe positiva sono memorizzate come y_pred_probs.

È stato creato anche un modello knn e le metriche delle prestazioni sono state stampate nella console, in modo da poter confrontare roc_auc_score, confusion_matrix e classification_report tra i due modelli.

Questo esercizio fa parte del corso

Apprendimento supervisionato con scikit-learn

Visualizza il corso

Istruzioni dell'esercizio

  • Importazione roc_auc_score.
  • Calcola e stampa il punteggio ROC AUC, passando le etichette del test e le probabilità di classe positiva previste.
  • Calcola e stampa la matrice di confusione.
  • Chiama classification_report().

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Import roc_auc_score
____

# Calculate roc_auc_score
print(____(____, ____))

# Calculate the confusion matrix
print(____(____, ____))

# Calculate the classification report
print(____(____, ____))
Modifica ed esegui il codice