Feature-effecten analyseren met beeswarm-plots
In je rol als data scientist aan de universiteit richt je je nu op een meer gedetailleerde analyse van individuele feature-effecten op toelatingsuitkomsten. Het was belangrijk om de belangrijkste factoren te identificeren die toelatingsbeslissingen beïnvloeden, maar door dieper te graven zie je hoe variaties in deze factoren de voorspellingen specifiek beïnvloeden. Deze extra inzichten helpen om vragen te beantwoorden zoals hoe veranderingen in test scores of CGPA de kans op toelating beïnvloeden, wat een duidelijker beeld geeft voor goed onderbouwde beslissingen en beleidsaanbevelingen.
De bibliotheek shap en de trainingsdata (X_train, y_train) zijn al voor je geladen.
Deze oefening maakt deel uit van de cursus
Explainable AI in Python
Oefeninstructies
- Leid de
shap_valuesaf met eenTreeExplainer. - Gebruik de afgeleide
shap_valuesom de beeswarm-plot te maken en te analyseren.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
model = RandomForestRegressor(random_state=42)
model.fit(X_train, y_train)
# Derive shap values
explainer = ____
shap_values = ____
# Plot the beeswarm plot
____