LoslegenKostenlos loslegen

Die besten Ergebnisse nutzen

Es ist zwar spannend, die Ergebnisse unserer Grid-Search zu analysieren, aber unser Endziel ist praktisch: Wir wollen mit unserem Estimator-Objekt Vorhersagen auf dem Testset machen.

Auf dieses Objekt können wir über die Eigenschaft best_estimator_ unseres Grid-Search-Objekts zugreifen.

Schauen wir uns die Eigenschaft best_estimator_ an, machen Vorhersagen und erzeugen Bewertungsmetriken. Zunächst nutzen wir das Standard-predict (liefert Klassen-Vorhersagen). Für den ROC-AUC-Score müssen wir jedoch predict_proba statt predict verwenden, da ROC-AUC Wahrscheinlichkeiten für die Berechnung benötigt. Mit dem Slice [:,1] erhalten wir die Wahrscheinlichkeiten der positiven Klasse.

Dir stehen die Datensätze X_test und y_test sowie das Objekt grid_rf_class aus den vorherigen Aufgaben zur Verfügung.

Diese Übung ist Teil des Kurses

Hyperparameter-Tuning in Python

Kurs anzeigen

Anleitung zur Übung

  • Prüfe den Typ der Eigenschaft best_estimator_.
  • Verwende die Eigenschaft best_estimator_, um Vorhersagen auf unserem Testset zu erstellen.
  • Erzeuge eine Konfusionsmatrix und den ROC_AUC-Score aus unseren Vorhersagen.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# See what type of object the best_estimator_ property is
print(____(____.____))

# Create an array of predictions directly using the best_estimator_ property
predictions = grid_rf_class.____._____(X_test)

# Take a look to confirm it worked, this should be an array of 1's and 0's
print(predictions[0:5])

# Now create a confusion matrix 
print("Confusion Matrix \n", confusion_matrix(y_test, ______))

# Get the ROC-AUC score
predictions_proba = grid_rf_class.best_estimator_.predict_proba(X_test)[:,1]
print("ROC-AUC Score \n", roc_auc_score(y_test, _____))
Code bearbeiten und ausführen