Diese Übung ist Teil des Kurses
Deine Wissensreise beginnt mit einer Einführung in die grundlegenden Konzepte der erklärbaren KI. Du lernst, wie man Entscheidungsregeln aus Entscheidungsbäumen extrahiert. Du erfährst auch, wie du die Wichtigkeit von Merkmalen mithilfe von linearen und baumbasierten Modellen ableiten und visualisieren kannst, um die Vorhersagen dieser Modelle besser zu verstehen und somit die Entscheidungsfindung transparenter zu gestalten.
Verwende leistungsstarke und modellunabhängige Techniken, um den Einfluss von Merkmalen auf verschiedene Modelle zu bewerten. Beachte die Permutationswichtigkeit und analysiere mithilfe von SHAP-Werten, wie sich Merkmale auf das Modellverhalten auswirken. Teste SHAP-Visualisierungstools, um Erklärbarkeitskonzepte verständlicher zu machen.
In diesem Kapitel befasst du dich mit der lokalen Erklärbarkeit und lernst, einzelne Modellvorhersagen zu analysieren. Außerdem nutzt du SHAP, um individuelle Prognosen zu erklären. Du arbeitest auch mit LIME, um spezifische Faktoren zu ermitteln, die einzelne Ergebnisse beeinflussen, sei es durch Text-, Tabellen- oder Bilddaten.
Im letzten Kapitel geht es um fortgeschrittene Themen im Zusammenhang mit der Erklärbarkeit von KI. Du bewertest das Verhalten von Modellen und die Effektivität von Erklärungsmethoden. Du lernst, die Konsistenz und Zuverlässigkeit von Erklärungen zu beurteilen, arbeitest dich in die Analyse unüberwachter Modelle ein und widmest dich den Argumentationsprozessen von generativen KI-Modellen wie ChatGPT. Dabei eignest du dir Techniken an, mit denen du die Erklärbarkeit von komplexen KI-Systemen messen und verbessern kannst.
Aktuelle Übung