Evaluar la consistencia de la explicación SHAP
Evalúa la consistencia de las explicaciones de la importancia de las características usando valores SHAP en dos subconjuntos diferentes del conjunto de datos de seguros.
Se han precargado para ti los subconjuntos X1
, X2
, y1
y y2
junto con model1
entrenado con el primer subconjunto y model2
entrenado con el segundo subconjunto.
Este ejercicio forma parte del curso
IA explicable en Python
Instrucciones del ejercicio
- Calcula
shap_values1
yfeature_importance1
paramodel1
. - Calcula
shap_values2
yfeature_importance2
paramodel2
. - Calcula la
consistency
entre importancias de características.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
# Calculate SHAP values and feature importance for model1
explainer1 = shap.TreeExplainer(model1)
shap_values1 = ____
feature_importance1 = ____
# Calculate SHAP values and feature importance for model2
explainer2 = shap.TreeExplainer(model2)
shap_values2 = ___
feature_importance2 =____
# Consistency calculation
consistency = ____
print("Consistency between SHAP values:", consistency)