Dokumente untermauern Whistleblower-Kritik Die babylonische Sprachverwirrung bei Facebook

Facebook-kritische Installation in London: Weltweit nimmt die Kritik an dem sozialen Netzwerk zu - interne Dokumente beleuchten nun das Ausmaß der Facebook-Probleme mit Hassrede und anstößigen Inhalten
Foto: Kirsty Wigglesworth / APDie Vorwürfe, die Facebook-Whistleblowerin Frances Haugen bei einer Senatsanhörung Anfang Oktober gegen das soziale Netzwerk erhob, waren überdeutlich: Facebook forme "unsere Wahrnehmung der Welt durch die Auswahl der Informationen, die wir sehen", erklärte Haugen vor US-Senatorinnen und Senatoren. Dabei wisse bisher nur der Konzern selbst, wie er den Newsfeed der Nutzer personalisiere.
Die Voreingenommenheit der Algorithmen sei "ein großes Problem für unsere Demokratie", warnte Haugen. Zudem hätten die Mechanismen teils das Potenzial, ein Suchtverhalten auszulösen. Facebook und dessen Fotoplattform Instagram, so die Whistleblowerin weiter, habe Profite stets über das Wohl der User gestellt. Facebook-Chef Mark Zuckerberg (37) entgegnete kurz darauf, dass der Vorwurf der Profitgier "einfach nicht wahr" sei.
Doch nun haben mehrere Medien interne Dokumente einsehen können, die Haugens Vorwürfe in Teilen stützen – und ein bitteres Bild aus dem Inneren des Konzerns zeichnen. So hätten Facebook-Angestellte bereits seit Jahren gewarnt, dass die internen Mechanismen zur Unterbindung von Hassreden und anstößigen Inhalten versagen, schreibt etwa die Nachrichtenagentur Reuters in Bezugnahme auf die Dokumente und Interviews mit fünf früheren Facebook-Angestellten. Das gelte vor allem für Länder, in denen solche Inhalte mit hoher Wahrscheinlichkeit den meisten Schaden anrichten können.
Zu wenig fähige Muttersprachler - und mangelhafte KI
Innerhalb einer Dekade sei Facebook stark gewachsen, aktuell sei der Konzern in 190 Ländern aktiv und habe mehr als 2,8 Milliarden Nutzer, die Inhalte in über 160 Sprachen veröffentlichen. Doch laut Reuters hätten die Anstrengungen des Konzerns, keine Bühne für "Hassreden, aufwieglerische Rhetorik und Desinformation" zu bieten, mit dieser globalen Expansion "nicht Schritt gehalten".
Die internen Dokumente, die von Reuters eingesehen wurden, zeigen, dass Facebook zu wenig Mitarbeiter eingestellt habe, die sowohl die Sprachkenntnisse als auch das Wissen um lokale Veranstaltungen besitzen, um "anstößige Posts" von Nutzern in einer Reihe von Entwicklungsländern zu identifizieren. Zudem zeigen die Dokumente auch, dass die von Facebook eingesetzten Künstliche-Intelligenz-Systeme häufig dieser Identifikationsaufgabe nicht gewachsen seien. Zudem habe es das Unternehmen seinen globalen Nutzern nicht einfach gemacht, Posts zu kennzeichnen, die den Regeln des Netzwerks nicht entsprechen.
Diese Einschränkungen, so warnten die Facebook-Mitarbeiter den Dokumenten zufolge, könnten die Fähigkeit des Unternehmens beschränken, sein Versprechen in puncto Unterbindung von "Hatespeech" und anderen regelwidrigen Posts einzuhalten – in Ländern von Afghanistan bis zum Yemen.
So hätte es etwa im internen Messageboard von Facebook im vergangenen Jahr eine Einschätzung eines Angestellten gegeben, der von "signifikanten Lücken" bei der Identifikation von Regelverstößen in bestimmten Ländern sprach – speziell in Ländern wie etwa Myanmar und Äthiopien, in denen das Risiko von realer, physischer Gewalt aktuell groß sei.
Mitarbeiter warnten vor Mängeln in firmeninternen Nachrichten
Die Dokumente stammen aus jenem Fundus, den Frances Haugen der US-Wertpapieraufsicht und dem US-Kongress offengelegt hat. Haugen, eine ehemalige Facebook-Produktmanagerin, hat das Unternehmen im Mai dieses Jahres verlassen. Reuters war eigenen Angaben zufolge eine von mehreren Nachrichtenorganisationen, die nun Einsicht in die Dokumente nehmen konnte. Sie umfassen Präsentationen, Berichte und Chatprotokolle. Von der Existenz der Dokumente berichtete zuerst die US-Wirtschaftszeitung "Wall Street Journal".
Facebook rechtfertigte sich gegenüber Reuters, dass das Netzwerk derzeit Muttersprachler zur Überprüfung von Inhalten in über 70 Sprachen einsetze. Diese Mitarbeiter arbeiten laut Facebook daran, den Missbrauch der Facebook-Plattform an Orten zu stoppen, an denen ein erhöhtes Risiko von Konflikten und Gewalt besteht.
Der Fundus an internen Dokumenten zeige aber laut Reuters in "detaillierten Schnappschüssen", wie Mitarbeiter in den vergangenen Jahren Alarm geschlagen hätten über Probleme mit den von Facebook eingesetzten Werkzeugen – also sowohl menschlichen Mitarbeitern als auch Technologie. So soll eine der Schwächen darin bestehen, dass die Überwachungsalgorithmen ausgerechnet für Sprachen fehlen, die in den besonders konfliktreichen Ländern benutzt werden.
Wie Reuters weiter berichtet, soll es im Jahr 2020 etwa keinen solchen Algorithmus für Birmanisch gegeben haben – die Sprache, die in Burma gesprochen wird – oder für die Sprachen Oromo und Amharisch, die in Äthiopien weitverbreitet sind. Die Dokumente legen zudem nahe, dass auch die menschliche Überprüfung von Hatespeech durch Muttersprachler Lücken aufweist. So hätten menschliche Moderatoren Schwierigkeiten mit zahlreichen arabischen Dialekten, heißt es.
Dass Facebook dabei große Probleme habe, untermauerten auch drei frühere Facebook-Mitarbeiter aus Büros im asiatisch-pazifischen Raum, Nahost und Nordafrika, die Reuters befragt hat. Sie erklärten gegenüber der Nachrichtenagentur, dass sie nicht den Eindruck hatten, dass die Inhaltsmoderation in ihren Regionen für Facebook Priorität gehabt hätte. Die Facebook-Führung habe die Probleme nicht verstanden und nicht genügend Ressourcen und Mitarbeiter bereitgestellt, so der Vorwurf der ehemaligen Angestellten.