CommencerCommencer gratuitement

Évaluation de la cohérence des explications du SHAP

Évaluez la cohérence des explications relatives à l'importance des caractéristiques à l'aide des valeurs SHAP dans deux sous-ensembles différents de l'ensemble de données d'assurance.

Les sous-ensembles X1, X2, y1 et y2 ont été préchargés pour vous, ainsi que model1 formé sur le premier sous-ensemble et model2 formé sur le deuxième sous-ensemble.

Cet exercice fait partie du cours

L'IA explicable en Python

Afficher le cours

Instructions

  • Calculez shap_values1 et feature_importance1 pour model1.
  • Calculez shap_values2 et feature_importance2 pour model2.
  • Calculez consistency entre les importances des caractéristiques.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Calculate SHAP values and feature importance for model1
explainer1 = shap.TreeExplainer(model1)
shap_values1 = ____
feature_importance1 = ____

# Calculate SHAP values and feature importance for model2
explainer2 = shap.TreeExplainer(model2)
shap_values2 = ___
feature_importance2 =____

# Consistency calculation
consistency = ____
print("Consistency between SHAP values:", consistency)
Modifier et exécuter le code