Évaluation de la cohérence des explications du SHAP
Évaluez la cohérence des explications relatives à l'importance des caractéristiques à l'aide des valeurs SHAP dans deux sous-ensembles différents de l'ensemble de données d'assurance.
Les sous-ensembles X1, X2, y1 et y2 ont été préchargés pour vous, ainsi que model1 formé sur le premier sous-ensemble et model2 formé sur le deuxième sous-ensemble.
Cet exercice fait partie du cours
L'IA explicable en Python
Instructions
- Calculez
shap_values1etfeature_importance1pourmodel1. - Calculez
shap_values2etfeature_importance2pourmodel2. - Calculez
consistencyentre les importances des caractéristiques.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Calculate SHAP values and feature importance for model1
explainer1 = shap.TreeExplainer(model1)
shap_values1 = ____
feature_importance1 = ____
# Calculate SHAP values and feature importance for model2
explainer2 = shap.TreeExplainer(model2)
shap_values2 = ___
feature_importance2 =____
# Consistency calculation
consistency = ____
print("Consistency between SHAP values:", consistency)