LoslegenKostenlos loslegen

Cross-Validation-Scoring

Jetzt solltest du mit cross_val_score() eine Cross-Validation durchführen, um die Gesamtleistung zu prüfen.

Diese Übung ist eine super Gelegenheit, die Hyperparameter learning_rate und max_depth auszuprobieren. Denk daran: Hyperparameter sind wie Einstellungen, mit denen du die Performance optimieren kannst.

Die Datensätze cr_loan_prep, X_train und y_train sind bereits im Workspace geladen.

Diese Übung ist Teil des Kurses

Kreditrisikomodellierung in Python

Kurs anzeigen

Anleitung zur Übung

  • Erstelle einen Gradient-Boosted-Tree mit einer Lernrate von 0.1 und einer maximalen Tiefe von 7. Speichere das Modell als gbt.
  • Berechne die Cross-Validation-Scores für die Datensätze X_train und y_train mit 4 Folds. Speichere die Ergebnisse als cv_scores.
  • Gib die Cross-Validation-Scores aus.
  • Gib den durchschnittlichen Accuracy-Score und die Standardabweichung mit Formatierung aus.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Create a gradient boosted tree model using two hyperparameters
____ = xgb.____(____ = ____, ____ = ____)

# Calculate the cross validation scores for 4 folds
____ = ____(____, ____, np.ravel(____), cv = ____)

# Print the cross validation scores
print(____)

# Print the average accuracy and standard deviation of the scores
print("Average accuracy: %0.2f (+/- %0.2f)" % (____.____(),
                                              ____.____() * 2))
Code bearbeiten und ausführen