Alles, was geht?
Algorithmen empfehlen das neue Paar Sneaker, präsentieren geeignete Bewerber und sagen sogar Verbrechen voraus. Die Möglichkeiten Künstlicher Intelligenz scheinen unbegrenzt. Deshalb müssen wir ihr kluge Grenzen setzen.
„Code is law“ schrieb 1999 der US-amerikanische Verfassungsrechtler Lawrence Lessig und brachte damit zum Ausdruck: Je mehr unser Dasein von technischen Infrastrukturen und digitalen Technologien durchdrungen wird, desto mehr bestimmt der „Code“, d. h. die Architektur aus Software und Hardware, über unser Zusammenleben. Herkömmliche Gesetze, wie zum Beispiel zur Regelung/Regulierung des Datenschutzes, kommen da schnell an ihre Grenzen: Entweder sind sie kaum durchsetzbar oder sie werden von den technologischen Realitäten ausgehöhlt.
Nichts zu verbergen?!
Die Europäische Datenschutzgrundverordnung (DSGVO) beispielsweise soll den Schutz persönlicher Daten europaweit einheitlich regeln und durchsetzbar machen. Von 2012 bis 2018, also ganze sechs Jahre dauerte der Gesetzgebungsprozess – eine Ewigkeit aus digitaler Perspektive. Noch im September 2019 hatte laut einer Bitkom-Studie lediglich ein Viertel der deutschen Unternehmen die DSGVO vollständig umgesetzt, trotz der empfindlichen Strafen, die seit Mai 2018 drohen.
Viele Bürger wissen nicht, welche Rechte ihnen auf Basis der DSGVO zustehen – andere würden gar nicht auf die Idee kommen, sie einzufordern. „Ich habe nichts zu verbergen“, ist ein immer noch weit verbreiteter Trugschluss, mit dem sich viele Menschen in Sicherheit wiegen, während ihre Spracheingaben in Siri und Alexa strategisch analysiert und ausgewertet, also von den Entsendefirmen nutzbar gemacht werden.
In dieser “brave new world“ stoßen klassische Gesetzesvorhaben an ihre Grenzen und können Bürger und Bürgerinnen nicht mehr umfänglich schützen. Wenn jedoch der Code zum De-Facto-Gesetz wird, müssen wir uns überlegen, welche Normen, welche ethisch-moralischen Grenzen wir den heutigen technologischen Entwicklungen, allen voran der Künstlichen Intelligenz (KI), setzen wollen.
Welche Normen wollen wir für die KI?
Wie können wir KI so gestalten, dass sie dem Gemeinwohl dient? Wollen wir eine KI, die sich an den Bedürfnissen des Menschen orientiert, die sogenannte menschenzentrierte KI? Wollen wir eine KI, die Menschen vor allem unterstützt, oder darf sie diese auch teilweise ersetzen?
Um sich diesen Fragen anzunähern, hat die Bundesregierung die Datenethikkommission eingesetzt, die laut eigener Aussage auf „Basis wissenschaftlicher und technischer Expertise ethische Leitlinien für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und Förderung des Wohlstands im Informationszeitalter entwickeln“ soll. Ihr Bericht erscheint nach langen Diskussionen wohl Ende Oktober 2019.
Die „High-Level Expert Group on AI“, eine Expertengruppe aus Forschung und Industrie, hat der EU-Kommission bereits im Juni Empfehlungen für eine künftige Gesetzgebung zu KI überlassen und Forderungen für den Umgang mit KI-Anwendungen aufgestellt. Sie stellt sich beispielsweise gegen eine „unverhältnismäßige und massenhafte Überwachung von Individuen“, welche KI-Technologien durch Videoüberwachung mit automatisierter Gesichtserkennung ermöglichen.
In dem Bericht heißt es: „Es mag zwar eine starke Versuchung für Regierungen geben, mit Hilfe von auf KI aufgebauten, allumfassenden Überwachungssystemen die ‚Gesellschaft sicher zu machen‘, dies wäre aber extrem gefährlich […].“ Ebenso warnt die Gruppe vor KI-gestützten Methoden zur physischen und mentalen Überwachung und Identifizierung, darunter emotionales Tracking sowie DNA-, Iris- und Verhaltensanalysen.
Die Reproduktion von Vorurteilen
Auch andere Organisationen, darunter Algorithm Watch, warnen seit Jahren vor den potenziellen negativen Seiten der KI und insbesondere vor automatisierten Entscheidungssystemen. Ein besonders häufig auftretendes Risiko stellt Diskriminierung dar – denn ein auf großen Datenmengen basierendes KI-System kann nur so gut sein wie der zugrunde liegende Datensatz. Und der basiert oft auf menschlichen Vorurteilen.
Beim Predictive Policing etwa, der vorhersagenden Polizeiarbeit, mit der man Straftaten einen Schritt voraus sein will, kann KI – je nachdem, wie der verwendete Algorithmus aufgebaut ist und mit welchen Daten er arbeitet – bestehende Vorurteile verstärken. So haben entsprechende KI-Systeme unter anderem bei Amazon dazu geführt, Frauen in Bewerbungsprozessen zu benachteiligen, weil sie den in den Daten abgebildeten Sexismus schlichtweg reproduzieren.
Um Diskriminierung bei der KI-gestützten Personalauswahl zu vermeiden, hat das Bundesarbeitsministerium den Einsatz eines neuen Beratergremiums angekündigt, das sich mit ethischen Fragen des Beschäftigtendatenschutzes befassen soll. Die Antidiskriminierungsstelle des Bundes sieht in ihrem Gutachten zu „Diskriminierungsrisiken durch Verwendung von Algorithmen“ jedenfalls Regulierungsbedarf.
Trotz der Risiken, die KI mit sich bringt, sollte sie auch als große Chance begriffen werden. Sie ermöglicht uns, neues Wissen zu generieren. Wir können uns darüber verständigen und definieren, was wir wissen wollen und wie neues Wissen dazu beitragen kann, gesellschaftliche Probleme zu lösen oder zu lindern.