ROC AUC
Die ROC-Kurve, die du in der letzten Übung erstellt hast, sah vielversprechend aus.
Jetzt berechnest du die Fläche unter dieser Kurve (abgekürzt mit AUC für „Area Under the Curve“), zusammen mit den anderen schon genutzten Klassifikationskennzahlen.
Die Funktionen confusion_matrix
und classification_report
sind schon geladen, ebenso wie das Modell logreg
, das du zuvor erstellt hast, sowie X_train
, X_test
, y_train
und y_test
. Außerdem sind die vom Modell vorhergesagten Labels der Testdaten als y_pred
gespeichert und die Wahrscheinlichkeiten dafür, dass die Beobachtungen in der Testmenge zur positiven Klasse gehören, als y_pred_probs
.
Es wurde auch ein knn
-Modell erstellt und die Leistungskennzahlen sind in der Konsole zu sehen, sodass du roc_auc_score
, confusion_matrix
und classification_report
für die beiden Modelle vergleichen kannst.
Diese Übung ist Teil des Kurses
Überwachtes Lernen mit scikit-learn
Anleitung zur Übung
- Importiere
roc_auc_score
. - Berechne den ROC-AUC-Wert, indem du die Testlabels und die vorhergesagten positiven Klassenwahrscheinlichkeiten übergibst, und lass das Ergebnis ausgeben.
- Berechne die Konfusionsmatrix und gib sie aus.
- Rufe
classification_report()
auf.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Import roc_auc_score
____
# Calculate roc_auc_score
print(____(____, ____))
# Calculate the confusion matrix
print(____(____, ____))
# Calculate the classification report
print(____(____, ____))