Valutare la coerenza delle spiegazioni SHAP
Valuta la coerenza delle spiegazioni di importanza delle feature usando i valori SHAP su due diversi sottoinsiemi dell'insieme di dati delle assicurazioni.
I sottoinsiemi X1, X2, y1 e y2 sono già stati caricati, insieme a model1 addestrato sul primo sottoinsieme e model2 addestrato sul secondo.
Questo esercizio fa parte del corso
Explainable AI in Python
Istruzioni dell'esercizio
- Calcola
shap_values1efeature_importance1permodel1. - Calcola
shap_values2efeature_importance2permodel2. - Calcola la
consistencytra le importanze delle feature.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Calculate SHAP values and feature importance for model1
explainer1 = shap.TreeExplainer(model1)
shap_values1 = ____
feature_importance1 = ____
# Calculate SHAP values and feature importance for model2
explainer2 = shap.TreeExplainer(model2)
shap_values2 = ___
feature_importance2 =____
# Consistency calculation
consistency = ____
print("Consistency between SHAP values:", consistency)