LoslegenKostenlos loslegen

Bäume für Zahlungsausfälle

Du trainierst jetzt ein Gradient-Boosted-Tree-Modell auf den Kreditdaten und schaust dir eine Stichprobe der Vorhersagen an. Erinnerst du dich, als du dir die Vorhersagen des Logit-Modells angeschaut hast? Sie sahen nicht gut aus. Meinst du, dieses Modell schneidet besser ab?

Die Kreditdaten cr_loan_prep, die Trainingsmengen X_train und y_train sowie die Testdaten X_test sind im Workspace verfügbar. Das XGBoost-Paket ist als xgb geladen.

Diese Übung ist Teil des Kurses

Kreditrisikomodellierung in Python

Kurs anzeigen

Anleitung zur Übung

  • Erstelle und trainiere einen Gradient-Boosted-Tree mit XGBClassifier() und nenne ihn clf_gbt.
  • Sage Ausfallwahrscheinlichkeiten auf den Testdaten voraus und speichere die Ergebnisse in gbt_preds.
  • Erstelle zwei DataFrames, preds_df und true_df, um die ersten fünf Vorhersagen und die wahren loan_status-Werte zu speichern.
  • Verknüpfe die DataFrames true_df und preds_df in dieser Reihenfolge mit concat() und gib sie aus, um die Modellergebnisse zu prüfen.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))

# Predict with a model
____ = clf_gbt.____(____)

# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()

# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))
Code bearbeiten und ausführen