Voreingenommenheit beim Machine Learning aufspüren
Im Video sehen wir eine KI-basierte Recruiting-Software, die Männer bevorzugt, weil sie aus historischen Daten gelernt hat, als mehr Männer eingestellt wurden. Wenn wir Modelle haben, die das Leben von Menschen beeinflussen, müssen wir sie sorgfältig auf diskriminierendes Verhalten untersuchen, das aus historischen Daten gelernt werden könnte.
In dieser Aufgabe hast du ein Modell, das vorhersagen soll, ob jemand seinen Kredit nicht zurückzahlen wird. Du kannst die resultierenden Vorhersagen nach verschiedenen Merkmalen wie Demographie und Beschäftigungsstatus aufschlüsseln. Probiere diese Funktionen aus und schaue, ob du etwas Verdächtiges darüber findest, bei wem ein Zahlungsausfall vorhergesagt wird und bei wem nicht.
Welche Funktion(en) sollten vor der Anwendung des Modells genauer auf mögliche Verzerrungen untersucht werden?
Diese Übung ist Teil des Kurses
Machine Learning verstehen
Interaktive Übung
Setze die Theorie in einer unserer interaktiven Übungen in die Praxis um
