IniziaInizia gratis

Alberi per i default

Ora allenerai un modello a gradient boosted trees sui dati di credito e vedrai un campione di alcune previsioni. Ricordi quando hai guardato per la prima volta le previsioni del modello di regressione logistica? Non sembravano buone. Pensi che questo modello sarà diverso?

I dati di credito cr_loan_prep, i set di training X_train e y_train, e i dati di test X_test sono disponibili nell'ambiente di lavoro. Il pacchetto XGBoost è caricato come xgb.

Questo esercizio fa parte del corso

Credit Risk Modeling in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Crea e allena un gradient boosted tree usando XGBClassifier() e chiamalo clf_gbt.
  • Prevedi le probabilità di default sui dati di test e salva i risultati in gbt_preds.
  • Crea due data frame, preds_df e true_df, per memorizzare le prime cinque previsioni e i valori reali di loan_status.
  • Concatena e stampa i data frame true_df e preds_df in quest'ordine e verifica i risultati del modello.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))

# Predict with a model
____ = clf_gbt.____(____)

# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()

# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))
Modifica ed esegui il codice