Bäume für Zahlungsausfälle
Du trainierst jetzt ein Gradient-Boosted-Tree-Modell auf den Kreditdaten und schaust dir eine Stichprobe der Vorhersagen an. Erinnerst du dich, als du dir die Vorhersagen des Logit-Modells angeschaut hast? Sie sahen nicht gut aus. Meinst du, dieses Modell schneidet besser ab?
Die Kreditdaten cr_loan_prep, die Trainingsmengen X_train und y_train sowie die Testdaten X_test sind im Workspace verfügbar. Das XGBoost-Paket ist als xgb geladen.
Diese Übung ist Teil des Kurses
Kreditrisikomodellierung in Python
Anleitung zur Übung
- Erstelle und trainiere einen Gradient-Boosted-Tree mit
XGBClassifier()und nenne ihnclf_gbt. - Sage Ausfallwahrscheinlichkeiten auf den Testdaten voraus und speichere die Ergebnisse in
gbt_preds. - Erstelle zwei DataFrames,
preds_dfundtrue_df, um die ersten fünf Vorhersagen und die wahrenloan_status-Werte zu speichern. - Verknüpfe die DataFrames
true_dfundpreds_dfin dieser Reihenfolge mitconcat()und gib sie aus, um die Modellergebnisse zu prüfen.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))
# Predict with a model
____ = clf_gbt.____(____)
# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()
# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))