Courbes de calibration
Vous savez maintenant que l’arbre à gradient boosting clf_gbt offre les meilleures performances globales. Vous devez vérifier la calibration des deux modèles pour voir à quel point les performances de prédiction par défaut restent stables selon les probabilités. Pour cela, vous pouvez tracer la calibration de chaque modèle en appelant la fonction calibration_curve().
Les courbes de calibration peuvent nécessiter de nombreuses lignes de code en Python ; vous allez donc ajouter les différents éléments pas à pas.
Les deux jeux de prédictions clf_logistic_preds et clf_gbt_preds ont déjà été chargés dans l’espace de travail. De plus, la sortie de calibration_curve() pour chaque modèle a été chargée sous : frac_of_pos_lr, mean_pred_val_lr, frac_of_pos_gbt et mean_pred_val_gbt.
Cet exercice fait partie du cours
Modélisation du risque de crédit en Python
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Create the calibration curve plot with the guideline
plt.____([0, 1], [0, 1], 'k:', label=____)
plt.____('Fraction of positives')
plt.____('Average Predicted Probability')
plt.legend()
plt.title('Calibration Curve')
plt.____()