IniziaInizia gratis

Valutare la coerenza delle spiegazioni SHAP

Valuta la coerenza delle spiegazioni di importanza delle feature usando i valori SHAP su due diversi sottoinsiemi dell'insieme di dati delle assicurazioni.

I sottoinsiemi X1, X2, y1 e y2 sono già stati caricati, insieme a model1 addestrato sul primo sottoinsieme e model2 addestrato sul secondo.

Questo esercizio fa parte del corso

Explainable AI in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Calcola shap_values1 e feature_importance1 per model1.
  • Calcola shap_values2 e feature_importance2 per model2.
  • Calcola la consistency tra le importanze delle feature.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Calculate SHAP values and feature importance for model1
explainer1 = shap.TreeExplainer(model1)
shap_values1 = ____
feature_importance1 = ____

# Calculate SHAP values and feature importance for model2
explainer2 = shap.TreeExplainer(model2)
shap_values2 = ___
feature_importance2 =____

# Consistency calculation
consistency = ____
print("Consistency between SHAP values:", consistency)
Modifica ed esegui il codice