CommencerCommencer gratuitement

Arbres pour les défauts de paiement

Vous allez maintenant entraîner un modèle d’arbres à gradient boosting sur les données de crédit et afficher un échantillon de prédictions. Vous souvenez-vous de votre première observation des prédictions du modèle de régression logistique ? Elles n’étaient pas convaincantes. Pensez-vous que ce modèle sera différent ?

Les données de crédit cr_loan_prep, les ensembles d’entraînement X_train et y_train, ainsi que les données de test X_test sont disponibles dans l’espace de travail. Le package XGBoost est chargé sous le nom xgb.

Cet exercice fait partie du cours

Modélisation du risque de crédit en Python

Afficher le cours

Instructions

  • Créez et entraînez un arbre à gradient boosting avec XGBClassifier() et nommez-le clf_gbt.
  • Prédisez les probabilités de défaut sur les données de test et stockez les résultats dans gbt_preds.
  • Créez deux data frames, preds_df et true_df, pour stocker les cinq premières prédictions et les vraies valeurs de loan_status.
  • Concaténez et affichez les data frames true_df et preds_df dans cet ordre, puis vérifiez les résultats du modèle.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Train a model
import xgboost as xgb
____ = xgb.____().fit(____, np.ravel(____))

# Predict with a model
____ = clf_gbt.____(____)

# Create dataframes of first five predictions, and first five true labels
____ = pd.DataFrame(____[:,1][0:5], columns = ['prob_default'])
____ = y_test.____()

# Concatenate and print the two data frames for comparison
print(pd.____([____.reset_index(drop = True), ____], axis = 1))
Modifier et exécuter le code