Bewertung der Konsistenz von Erklärungen mit SHAP
Bewerte die Konsistenz von Erklärungen zur Merkmalswichtigkeit anhand der SHAP-Werte in zwei verschiedenen Untergruppen des Versicherungsdatensatzes.
Die Teilmengen X1
, X2
, y1
und y2
wurden bereits geladen, zusammen mit model1
(trainiert mit der ersten Teilmenge) und model2
(trainiert mit der zweiten Teilmenge).
Diese Übung ist Teil des Kurses
Erklärbare KI in Python
Anleitung zur Übung
- Berechne
shap_values1
undfeature_importance1
fürmodel1
. - Berechne
shap_values2
undfeature_importance2
fürmodel2
. - Berechne die Konsistenz (
consistency
) zwischen den Merkmalswichtigkeiten.
Interaktive Übung zum Anfassen
Probieren Sie diese Übung aus, indem Sie diesen Beispielcode ausführen.
# Calculate SHAP values and feature importance for model1
explainer1 = shap.TreeExplainer(model1)
shap_values1 = ____
feature_importance1 = ____
# Calculate SHAP values and feature importance for model2
explainer2 = shap.TreeExplainer(model2)
shap_values2 = ___
feature_importance2 =____
# Consistency calculation
consistency = ____
print("Consistency between SHAP values:", consistency)