„KI macht vieles leichter – leider auch Diskriminierung“
Künstliche Intelligenz-Systeme übernehmen Aufgaben im Alltag. Sie treffen Entscheidungen, beantworten Fragen und generieren Bilder. Aber sie sind dabei nicht immer neutral. Warum KI bestimmte Personengruppen diskriminiert und was man dagegen tun kann.
Im Recruiting, bei der Bonitätsprüfung oder bei der Strafverfolgung: Künstliche Intelligenz-Systeme (KI-Systeme) kommen in vielen Bereichen unseres Alltags zum Einsatz. Immer häufiger sind sie auch an wichtigen Entscheidungen beteiligt. Zum Beispiel wenn es darum geht, wer im Bewerbungsverfahren weiterkommt oder wer als kreditwürdig gilt.
Künstliche Intelligenz ist laut Fraunhofer Institut ein Teilgebiet der Informatik, das menschliche kognitive Fähigkeiten imitieren kann, indem es Informationen aus Eingabedaten erkennt und sortiert. Die sogenannte “Intelligenz“ basiert dabei auf bestimmten Abläufen, die ein Entwicklerteam programmiert hat. Sie kann aber auch durch maschinelles Lernen erzeugt werden. So lernt ein Algorithmus anhand eines ausgewählten Datensatzes, bestimmte Muster auszumachen. Diese “Trainingsdaten“ setzen sich aus Texten, Fotos, Videos und Audioaufnahmen zusammen. Soll eine Software zur Gesichtserkennung entwickelt werden, wird das System mit vielen Tausenden Fotos konfrontiert. Mithilfe der Muster, die das System dort herausliest, kann es Strukturen erfassen, evaluieren und so selbständig Aufgaben lösen oder Urteile fällen.
Ein verzerrtes Bild der Realität
Wie ein KI-System vorgeht, hängt von den verfügbaren Trainingsdaten ab. Die sind oft alles andere als neutral – etwa wenn sie bestimmte Personengruppen kaum oder gar nicht repräsentieren. Kommen für eine Gesichtserkennungssoftware hauptsächlich Bilder von weißen Menschen vor, kann das Programm die Gesichter schwarzer Menschen tendenziell weniger gut erkennen. Das hat bereits dazu geführt, dass Menschen in Verbrechen verwickelt wurden, die sie nie begangen haben: 2020 wurde der US-Amerikaner Robert Williams verhaftet, weil eine KI sein Gesicht mit dem eines anderen Mannes verwechselte.
Neben den Trainingsdaten kann der Code des Systems eine Rolle spielen. Da er von Menschen gemacht ist, überträgt er mutmaßlich ihre Weltsicht in das System, inklusive Stereotypen und Vorurteilen. Wenn das KI-System auf Grundlage dieser verzerrten Daten Entscheidungen trifft, kann das – wie beim Menschen – zu Benachteiligung führen.
In den USA haben fehlerhaft programmierte Algorithmen bei Apple-Kreditkarten systematisch Frauen bei der Kreditvergabe benachteiligt; in den Niederlanden hat ein diskriminierender Algorithmus in einer Datenbank dazu geführt, dass die Regierung 2019 zu Unrecht das Kindergeld von mehr als 20.000 Menschen zurückforderte, vor allem von Menschen mit doppelter Staatsbürgerschaft.
Weiße CEOs, schwarze Reinigungskräfte
Diskriminierung von KI-Systemen trifft somit Personengruppen, die in unserer Gesellschaft aufgrund ihrer Herkunft, ihrer Klassenzugehörigkeit, ihres Geschlechts oder einer Behinderung Ausgrenzung erfahren haben. Fragt man die generative KI namens Stable Diffusion, wie Menschen aussehen, die in bestimmten Jobs arbeiten, erhält man eine extrem voreingenommene Darstellung: Führungskräfte und Anwälte sind dort fast ausschließlich männlich und weiß, Reinigungskräfte und Kassier*innen weiblich und People of Colour zugehörig. Auch Stable Diffusion gehört wie MidJourney und Dall-E zu KIs, die aus einer einzigen Eingabe Bilder erstellen können. Dass Stable Diffusion Geschlechts- und Unterschiede der Herkunft in seinen Bildern besonders überspitzt abbildet, hat eine Analyse des Nachrichtenunternehmens Bloomberg gezeigt, für die 5.000 Bilder ausgewertet wurden.
Dass KI-Systeme rassistische und sexistische Vorstellungen erzeugen können, ist insofern relevant, weil ihr Einsatz laut Expert*innen in Zukunft immer wahrscheinlicher und wichtiger werden wird. Die Studie „Facing Reality“ von Europol aus dem Jahr 2022 prognostiziert, dass im Jahr 2026 90 Prozent aller Bilder von automatisierten Systemen stammen könnten.
Rufe nach einer stärkeren Regulierung
Wissenschaftler*innen und Aktivist*innen weisen seit Langem darauf hin, dass KI-Systeme problematisch sind. „KI macht vieles leichter – leider auch Diskriminierung“, erklärte die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, bei der Vorstellung des Gutachtens „Automatisch benachteiligt“, das zu dem Ergebnis kam, dass diskriminierende KIs strukturelle Ungleichheiten nicht nur verstärken, sondern neue schaffen. Das sei gefährlich, weil das Allgemeine Gleichbehandlungsgesetz (AGG), das Menschen in Deutschland vor Diskriminierung schützen soll, bisher noch nicht weit genug gehe. Außerdem könnten Betroffene ihre Benachteiligung oft nicht nachweisen. Das Gutachten rät zu einer Anpassung der Gesetzeslage und mehr Transparenz darüber, wie KI-Systeme zu Ergebnissen kommen.
Mehr Transparenz fordert ebenso eine Resolution des UN-Menschenrechtsrats. Die Systeme müssten vor ihrem Einsatz konkret auf Risiken und mögliche Verzerrungen geprüft werden. Auch zivilgesellschaftliche Organisationen sehen Handlungsbedarf. Bereits im Januar dieses Jahres hatte AlgorithmWatch zusammen mit zwanzig weiteren Organisationen die Bundesregierung in einem offenen Brief dazu angehalten, algorithmenbasierte Diskriminierung anzuerkennen und gesetzliche Schutzlücken zu schließen.
Wie das konkret aussehen könnte, wird sich auf europäischer Ebene bald zeigen: Ende des Jahres bringen das Europäische Parlament, der Ministerrat und die EU-Kommission mit dem „AI-Act“ das erste internationale Gesetz auf den Weg, das KI-Systeme regulieren soll. Inwieweit das Gesetz Bürger*innen tatsächlich besser vor diskriminierenden Strukturen schützen wird, bleibt abzuwarten.