Hilfe auf Kosten des Datenschutzes
Künstliche Intelligenz soll auch fernab von Operationsälen helfen, Leben zu retten. Facebook nutzt digitale Technologien, um suizidgefährdete Nutzer zu identifizieren. Das hat auch eine Kehrseite.
Alle 40 Sekunden begeht irgendwo auf der Welt jemand Selbstmord. Zu diesem Ergebnis kommt 2014 ein Bericht der Weltgesundheitsorganisation. Eine Nachricht, die beunruhigt. Damals wie heute. Aber ohne abschreckende Wirkung. Seitdem Facebook Live-Videos anbietet, töten sich Menschen sogar vor laufender Kamera – mit den Freunden des sozialen Online-Netzwerks als Publikum.
Auf diese Publicity kann Facebook verzichten. Auf seine User nicht. Seit März 2017 nutzt das Netzwerk Künstliche Intelligenz (KI), um dieser Entwicklung vorzubeugen und suizidgefährdete Nutzer aufzuspüren. Amerikanische Nutzer testeten den „Suizidscreen“ zuerst. Seit Herbst dieses Jahres wendet Facebook ihn weltweit an – außer in der EU, aufgrund hiesiger Datenschutzrichtlinien.
Analyse der Nutzerposts
Wie funktioniert der Suizidscreen? Eine KI-Software analysiert Nutzerposts nach bestimmten Signalwörtern, die auf eine Selbstmordgefährdung hindeuten. Da Facebook seinen Usern schon seit Jahren die Möglichkeit bietet, Bilder, Kommentare und Status-Updates anderer mit dem Vermerk „Suizid“ zu melden, konnten die Entwickler auch diese Daten in die Software einspeisen. Je mehr Daten die Software hat, desto eher kann sie gefährdete Nutzer identifizieren.
Kommentare wie „Ich mache mir Sorgen um dich“ oder Bilder von Abschiedsbriefen werden von der KI als Selbstmordindikatoren gesammelt. Finden sich genug solcher Muster, wird ein spezielles Team innerhalb des Unternehmens alarmiert, das einen „Wellness-Check“ durchführt. Es schreibt den Nutzer selbst sowie Facebookfreunde an und bietet Hilfe. In den USA können Nutzer Nachrichten direkt an Psychologen und Krisenberater schicken.
Für seine Initiative wird das Netzwerk gelobt. Dan Reiden, Geschäftsführer von Save.org, einer der ältesten Hilfsorganisationen für Suizidgefährdete in den USA, sagte in einem Interview über das Facebook-Programm: „Der kontinuierliche und zukünftige Einsatz gibt mir große Hoffnung, dass wir weltweit mehr Leben vor einer Selbstmordtragödie retten können.“
Die BILD titelte: „Doch ein SOZIALES Netzwerk“
Die US National Suicide Prevention Lifeline, eine landesweite Telefonseelsorge für Suizidgefährdete, arbeitet eng mit dem IT-Unternehmen zusammen. Sie hofft, dass Facebook in Zukunft noch proaktiver vorgeht und selbstständig Hilfsmechanismen einschaltet.
Keine selbstbestimmte Datenverwendung
Doch es gibt auch Kritik. Vor allem wegen des mangelnden Datenschutzes, der mit dem Suizidscreen einhergeht. Das deutsche Bundesdatenschutzgesetz etwa sieht vor, dass Nutzer benachrichtigt werden müssen, wenn ihre Daten von einer nichtöffentlichen Stelle gespeichert und an Dritte übermittelt werden. Diese Richtlinien werden in der gemeinsamen europäischen Datenschutzvereinbarung DSGVO, die am 25. Mai 2018 in Kraft tritt, noch verschärft. Da Nutzer den Suizidscreen nicht an- oder ausstellen können, fehlt ihnen die Möglichkeit, dem Screening ihrer Daten zu widersprechen.
Schließlich gibt es die Befürchtung, Facebook könne die Technologie nutzen, um andere sensible Daten über die ethnische Herkunft, politische Meinungen, religiöse Überzeugungen, Gewerkschaftszugehörigkeit, Gesundheit und Sexualleben zu aggregieren und auszuwerten.
Facebook-Gründer Mark Zuckerberg befeuerte die Debatte durch einen Kommentar gegenüber dem Online-Nachrichtenportal Tech Crunch. „In Zukunft wird Künstliche Intelligenz die subtileren Nuancen von Sprache verstehen und über Suizid hinausgehende Themen identifizieren können.“ Pädophilie, Terrorismus: All das und noch mehr soll per Algorithmus entdeckt werden können. Doch dazu sind Daten nötig, viele Daten. Die Gefahr, dass es zum Missbrauch dieser Daten kommen kann, ist offensichtlich.
Facebook wird immer unverzichtbarer
Nicht zuletzt ist die mögliche Verquickung zwischen Facebook und staatlichen Behörden beunruhigend. Die Plattform übernimmt immer mehr Funktionen, die früher tendenziell dem Staat oblagen. Dies zeigt sich beispielsweise bei den Security Checks nach Terror-Anschlägen oder Naturkatastrophen: Nutzer können in kürzester Zeit und mit nur einem Klick angeben, dass es ihnen gut geht, sollten sie in der Nähe eines solchen Ereignisses geortet werden. Das ersetzt nervenaufreibende und zum Teil kostspielige Nachforschungen von privater und öffentlicher Stelle und entlastet Krisenhotlines.
Wer jedoch keinen Account hat oder den Datenschutzbestimmungen von Facebook nicht zustimmt, wird von diesem Service ausgeschlossen. Dies erhöht den Druck, sich ein Facebook-Profil anzulegen. Ein der Realität entsprechendes Profil bei einem privaten, gewinnorientierten Unternehmen mit einer nur wenig kontrollierten Unternehmensführung, dessen Werbeumsätze allein im dritten Quartal 2017 bei rund 10,14 Milliarden US-Dollar lagen. Tendenz steigend.
Auch deshalb dürfen sich öffentliche Akteure nicht aus der Verantwortung stehlen, mithilfe von KI für die Gesellschaft, der sie entspringen, bestehende und weiterführende Selbstschutzmaßnahmen bereitzuhalten und digital auszubauen. Fortschritt in diesem Bereich darf nicht allein Facebook überlassen werden.