ComeçarComece de graça

Árvores para inadimplência

Agora você vai treinar um modelo de árvores com gradient boosting nos dados de crédito e ver uma amostra de algumas previsões. Lembra quando você olhou pela primeira vez as previsões do modelo de regressão logística? Elas não pareciam boas. Você acha que este modelo será diferente?

Os dados de crédito cr_loan_prep, os conjuntos de treino X_train e y_train, e os dados de teste X_test estão disponíveis no workspace. O pacote XGBoost está carregado como xgb.

Este exercício faz parte do curso

Modelagem de Risco de Crédito em Python

Ver curso

Instruções do exercício

  • Crie e treine uma árvore com gradient boosting usando XGBClassifier() e chame-a de clf_gbt.
  • Faça a predição das probabilidades de inadimplência nos dados de teste e salve os resultados em gbt_preds.
  • Crie dois data frames, preds_df e true_df, para armazenar as cinco primeiras previsões e os valores reais de loan_status.
  • Concatene e imprima os data frames true_df e preds_df, nessa ordem, e verifique os resultados do modelo.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))

# Predict with a model
____ = clf_gbt.____(____)

# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()

# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))
Editar e executar o código