Árvores para inadimplência
Agora você vai treinar um modelo de árvores com gradient boosting nos dados de crédito e ver uma amostra de algumas previsões. Lembra quando você olhou pela primeira vez as previsões do modelo de regressão logística? Elas não pareciam boas. Você acha que este modelo será diferente?
Os dados de crédito cr_loan_prep, os conjuntos de treino X_train e y_train, e os dados de teste X_test estão disponíveis no workspace. O pacote XGBoost está carregado como xgb.
Este exercício faz parte do curso
Modelagem de Risco de Crédito em Python
Instruções do exercício
- Crie e treine uma árvore com gradient boosting usando
XGBClassifier()e chame-a declf_gbt. - Faça a predição das probabilidades de inadimplência nos dados de teste e salve os resultados em
gbt_preds. - Crie dois data frames,
preds_dfetrue_df, para armazenar as cinco primeiras previsões e os valores reais deloan_status. - Concatene e imprima os data frames
true_dfepreds_df, nessa ordem, e verifique os resultados do modelo.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))
# Predict with a model
____ = clf_gbt.____(____)
# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()
# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))