Arbres pour les défauts de paiement
Vous allez maintenant entraîner un modèle d’arbres à gradient boosting sur les données de crédit et afficher un échantillon de prédictions. Vous souvenez-vous de votre première observation des prédictions du modèle de régression logistique ? Elles n’étaient pas convaincantes. Pensez-vous que ce modèle sera différent ?
Les données de crédit cr_loan_prep, les ensembles d’entraînement X_train et y_train, ainsi que les données de test X_test sont disponibles dans l’espace de travail. Le package XGBoost est chargé sous le nom xgb.
Cet exercice fait partie du cours
Modélisation du risque de crédit en Python
Instructions
- Créez et entraînez un arbre à gradient boosting avec
XGBClassifier()et nommez-leclf_gbt. - Prédisez les probabilités de défaut sur les données de test et stockez les résultats dans
gbt_preds. - Créez deux data frames,
preds_dfettrue_df, pour stocker les cinq premières prédictions et les vraies valeurs deloan_status. - Concaténez et affichez les data frames
true_dfetpreds_dfdans cet ordre, puis vérifiez les résultats du modèle.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))
# Predict with a model
____ = clf_gbt.____(____)
# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()
# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))