Alberi per i default
Ora allenerai un modello a gradient boosted trees sui dati di credito e vedrai un campione di alcune previsioni. Ricordi quando hai guardato per la prima volta le previsioni del modello di regressione logistica? Non sembravano buone. Pensi che questo modello sarà diverso?
I dati di credito cr_loan_prep, i set di training X_train e y_train, e i dati di test X_test sono disponibili nell'ambiente di lavoro. Il pacchetto XGBoost è caricato come xgb.
Questo esercizio fa parte del corso
Credit Risk Modeling in Python
Istruzioni dell'esercizio
- Crea e allena un gradient boosted tree usando
XGBClassifier()e chiamaloclf_gbt. - Prevedi le probabilità di default sui dati di test e salva i risultati in
gbt_preds. - Crea due data frame,
preds_dfetrue_df, per memorizzare le prime cinque previsioni e i valori reali diloan_status. - Concatena e stampa i data frame
true_dfepreds_dfin quest'ordine e verifica i risultati del modello.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))
# Predict with a model
____ = clf_gbt.____(____)
# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()
# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))