ComenzarEmpieza gratis

Evaluar la consistencia de la explicación SHAP

Evalúa la consistencia de las explicaciones de la importancia de las características usando valores SHAP en dos subconjuntos diferentes del conjunto de datos de seguros.

Se han precargado para ti los subconjuntos X1, X2, y1 y y2 junto con model1 entrenado con el primer subconjunto y model2 entrenado con el segundo subconjunto.

Este ejercicio forma parte del curso

IA explicable en Python

Ver curso

Instrucciones del ejercicio

  • Calcula shap_values1 y feature_importance1 para model1.
  • Calcula shap_values2 y feature_importance2 para model2.
  • Calcula la consistency entre importancias de características.

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

# Calculate SHAP values and feature importance for model1
explainer1 = shap.TreeExplainer(model1)
shap_values1 = ____
feature_importance1 = ____

# Calculate SHAP values and feature importance for model2
explainer2 = shap.TreeExplainer(model2)
shap_values2 = ___
feature_importance2 =____

# Consistency calculation
consistency = ____
print("Consistency between SHAP values:", consistency)
Editar y ejecutar código