Facebook will Suizide verhindern

Foto:Mara Brandl/picture alliance/imageBROKER

Mit einem selbstentwickelten Algorithmus will Facebook Suizide verhindern. Doch ist so ein Programm tatsächlich sinnvoll? 

Pro Jahr nehmen sich laut Schätzungen rund 800.000 Menschen weltweit das Leben – und viele von ihnen sind zwischen 15 und 20 Jahre. Um ihnen zu helfen, hat Facebook im Jahr 2017 einen Algorithmus entwickelt, der Beiträge und Kommentare von Usern auf verdächtige Hinweise scannt. Personen mit erhöhtem Suizid-Risiko meldet der Algorithmus an einen zuständigen Facebook-Mitarbeiter, der diesen Nutzern dann Informationen zu Hilfsangeboten zukommen lässt. Ist das Risiko besonders hoch, kann er die betreffende Person auch direkt anschreiben oder sich an die örtlichen Behörden wenden. Mit Erfolg: Die Warnung des Algorithmus hätte seit seiner Einführung weltweit zu 3500 Einsätzen von Ersthelfern geführt, verkündet Mark Zuckerberg im November 2018 – sprich: an die 3500 potenzielle Suizide verhindert.

Doch stimmt das wirklich? Liefert Facebooks Präventionsprogramm tatsächlich einen Beitrag zur öffentlichen Gesundheit oder kann es den Betroffenen auch schaden? Und was für Daten erfasst der Algorithmus überhaupt? Das hat das Science Media Center Germany Experten gefragt. Ihre Einschätzung:

„Ohne Einwilligung ist das Screening ethisch nicht vertretbar“

Christiane Woopen, Direktorin des Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (Ceres) an der Universität zu Köln und Vorsitzende des Europäischen Ethikrates (EGE)

„Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar. Suizidprävention ist ein wichtiges gesellschaftliches Anliegen. Wenn Facebook dabei mit seinen technologischen Möglichkeiten und auf der Grundlage seiner riesigen Menge an Daten eine Rolle spielen kann und möchte, soll es sich an die bewährten Standards für die Einführung und Evaluation von Screeningverfahren halten. Dazu gehört vor allem, dass Facebook unter Einbeziehung unabhängiger Wissenschaftler nachweisen muss, dass das Screening mehr nutzt als schadet. Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind.“

„Fehlalarme können schwerwiegende Folgen haben“

Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft der Universität Paderborn

„Facebook versucht sich hier an Forschung zu einer medizinischen Diagnose. Diese sollte den strengen methodischen Anforderungen medizinischer Verfahren standhalten. Das heißt zum Beispiel: unbedingte Einwilligung der Betroffenen, unabhängige Evaluation und öffentlich nachvollziehbare Kriterien. Nichts davon ist hier gegeben. Laut einem Artikel der New York Times zum Thema evaluiert Facebook nicht einmal, ob die Alarme zutreffend waren.”

„Die Methodik von Facebook basiert auf Algorithmen aus dem Feld des maschinellen Lernens. Sie versuchen Gemeinsamkeiten zwischen Beiträgen von verschiedenen suizidgefährdeten Personen zu finden. Wie die Autoren darstellen, wird hier automatisch verallgemeinert, es wird eine Art allgemeines Muster für Suizidgefahr gesucht. Damit können auch diverse Beiträge in den Fokus der Algorithmen geraten, die nichts mit Suizid zu tun haben. Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen, haben solche Fehlalarme schwerwiegende Folgen.“

Was sagt das Gesetzt?

Mit der Datenschutz-Grundverordnung (DSGVO), die am 25. Mai 2018 in Kraft getreten ist, verbietet die Europäische Union (EU) Gesundheitsdaten in dieser Weise zu verarbeiten. Hier heißt es: „Die Verarbeitung von genetischen Daten, biometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person, Gesundheitsdaten oder Daten zum Sexualleben oder der sexuellen Orientierung einer natürlichen Person ist untersagt.“ Es sei denn, „die betroffene Person hat in die Verarbeitung der genannten personenbezogenen Daten für einen oder mehrere festgelegte Zwecke ausdrücklich eingewilligt.“

„Der aktuelle Einsatz der Suizidpräventionsalgorithmen geht über die Köpfe der Beteiligten hinweg. Wer auf Facebook (oder anderswo) von Suizidplänen berichtet, hat dabei normalerweise ein Publikum im Kopf – Bekannte, Freunde, Familie, und so weiter. Facebooks Reaktion sollte die Handlungsmöglichkeiten der somit Angesprochenen nicht behindern. Diese haben für gewöhnlich auch viel mehr Informationen. Sie wissen beispielsweise, ob die Person schon in Behandlung ist, oder kennen den entsprechenden Arzt. Die Nutzung der Daten von Facebook ist eventuell dann sinnvoll, wenn es den Angehörigen nicht gelingt, die Person zu lokalisieren. Dieser Fall wurde ebenfalls in dem Artikel der New York Times beschrieben. Das kann dann aber auch durch eine Anfrage der Polizei geschehen und braucht kein pro-aktives Handeln von Facebook.“

„Der Fall illustriert deutlich, welch intimes Wissen Firmen wie Facebook inzwischen über uns erlangen können. Dass hier ein hehrer Zweck verfolgt wird, sollte nicht davon ablenken, dass dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten. Deshalb braucht es dringend eine Regelung, welche die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt.“

„Aufgrund der Sensibilität der Daten müsste auf jeden Fall genau geregelt werden, was nach einem solchen Alarm mit den Informationen geschieht: beispielsweise, ob Facebook diese speichert und für andere Zwecke nutzen kann oder an bestimmte Stellen weitergeben darf, was sehr fragwürdig wäre.“

„Gesundheitsdaten sind besonders schutzbedrftig“

Anne Riechert, Professorin für Datenschutzrecht und Recht in der Informationsverarbeitung der Frankfurt University of Applied Sciences in  Frankfurt und wissenschaftliche Leiterin der Stiftung Datenschutz in Leipzig

„Bei sensiblen Daten – wie Daten zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheitsdaten – handelt es sich um Daten mit besonderer Schutzbedürftigkeit, deren Verarbeitung untersagt ist. Dies umfasst auch Daten, die Ausdruck einer körperlichen, seelischen, sozialen, familiären Notlage sein können und deren Offenlegung den Betroffenen beschämen können. Gesundheitsdaten können außerdem durch die Verknüpfung unterschiedlicher Daten entstehen, die nichts über den Gesundheitszustand aussagen, aber Rückschlüsse darauf zulassen.“

„Da Facebook Rückschlüsse auf den Gesundheitszustand oder die psychische Gesundheit durch Anwendung eines intransparenten Verfahrens zieht, ergibt sich gerade daraus auch die besondere Schutzbedürftigkeit dieser Daten. Unklar ist hierbei insbesondere, welche Kriterien für eine Gefährdung der Person sprechen sollen, wer Zugriff auf diese Daten hat und für welchen Zeitraum diese Information gespeichert wird. Selbst wenn veröffentlichte Daten analysiert werden, müssen die Grundrechte des Betroffenen berücksichtigt werden und die Rechtmäßigkeit dieser weiteren Verarbeitung ist nicht ohne weiteres zu unterstellen. Im Falle einer Einwilligung muss diese informiert und ausdrücklich erfolgen, was in der Praxis schwierig umzusetzen sein dürfte.“

Quelle: Science Media Center Germany