Hat Facebook die US-Wahl beeinflusst? Die (Un)Schuld der Algorithmen

Hat Facebook die Wahl von Donald Trump durch die Verbreitung von Falschmeldungen unterstützt? Facebook-Chef Mark Zuckerberg hält die These für "verrückt". Nicht die Algorithmen seien Schuld, sondern die Nutzer selbst.
Kein digitaler Filter im Newsfeed, keine Steuerung von Falschmeldungen: Facebook-Chef Mark Zuckerberg will mit seinem weltgrößten Netzwerk keinen Einfluss auf die politische Meinung der Menschen ausgeübt haben. Geschweige denn auf das Ergebnis der US-Wahl

Kein digitaler Filter im Newsfeed, keine Steuerung von Falschmeldungen: Facebook-Chef Mark Zuckerberg will mit seinem weltgrößten Netzwerk keinen Einfluss auf die politische Meinung der Menschen ausgeübt haben. Geschweige denn auf das Ergebnis der US-Wahl

Foto: © Beck Diefenbach / Reuters/ REUTERS

Wie erklärt sich, dass gegen alle Vorhersagen und Umfragen ein latent sexistisch-rassistischer Mensch wie Donald Trump die US-Präsidentenwahl gewinnen konnte? Erklärungsversuche dazu gibt es viele. Einer lautet, dass Trump besser als andere die tiefe Unzufriedenheit weiter Bevölkerungsteile mit dem politischen und wirtschaftlichen Establishment erkannte, anzusprechen und auszunutzen vermochte. Dass er die ökonomisch und gesellschaftlich Abgehängten einfangen konnte, für die der amerikanische Traum - trotz harter Arbeit - ausgeträumt schien.

Andere Erklärungsversuche, die Verschwörungstheorien nahe kommen, sehen den russischen Geheimdienst im Spiel. Sollen in seinem Auftrag doch Hacker zur Verbreitung geheimer Mails der unterlegenen Hillary Clinton beigetragen und der Demokratin im Wahlkampf geschadet haben.

Ein weiterer Erklärungsversuch misst nun Facebook eine wichtige Rolle bei der Wahl von Donald Trump zu. Schließlich ist das weltgrößte soziale Netzwerk für die meisten US-Bürger eine zentrale Informationsquelle, für nicht wenige auch die einzige. Wenn dann Falsch- oder politische Tendenz-Meldungen durch Algorithmen priorisiert die Nutzer millionenfach erreichen, könnte dies die Wahl mit beeinflusst haben. So weit und grob geschnitzt die These.

Eine These, die Facebook-Gründer Mark Zuckerberg jetzt nach Kräften zu widerlegen suchte. "Ich persönlich halte es für eine ziemlich verrückte Idee, dass falsche News auf Facebook die Wahl auf irgendeine Weise beeinflusst haben könnten", sagte Zuckerberg auf der Konferenz "Techonomy" in Kalifornien. Diese Falschmeldungen machten nur einen kleinen Teil der Inhalte aus. Die Wähler entschieden vielmehr auf Basis ihrer Lebenserfahrung.

Facebook war im Wahlkampf vorgeworfen worden, es habe zuwenig gegen die Ausbreitung gefälschter Nachrichten getan. Eine zum Beispiel lautete, der Papst habe Trumps Kandidatur unterstützt.

"Der Mensch neigt nun mal dazu, Dinge auszublenden"

Falschmeldungen oder bewusst gestreute Halbwahrheiten gab es im Wahlkampf viele. Allerdings, so ergab eine Analyse des Portals "Buzzfeed ", hätten rechte Kreise mit 38 Prozent ihrer Posts doppelt so häufig "fake news" gestreut wie linke oder liberale Kreise (19 Prozent). Oft ungelesen geteilt, hätten sich diese dann in rasanter Geschwindigkeit proportional stärker verbreitet - auch weil Facebooks Algorithmus besonders oft geteilte Inhalte bevorzugt bei den Nutzern in die Timeline einspiele.

Zugleich - so die These - sortiere der Algorithmus dem Nutzer durch seine bei Facebook hinterlassenen digitalen Spuren verstärkt Inhalte zu, die zu seinen Ansichten passten und sein Weltbild im Ergebnis nur bestätigten.

Auch dem widersprach Zuckerberg. Einen digitalen Filter im Newsfeed, der Nachrichten aussortiere und die Nutzer zu beeinflussen versuche, gebe es nicht. So habe eine 2015 veröffentlichte Studie von Facebook gezeigt, dass angezeigte Nachrichten für Liberale und Konservative sich nur geringfügig unterschieden. Das "Wall Street Journal"  allerdings war durch eine Analyse von Newsfeeds zu einer gegenteiligen Einschätzung gekommen.

Menschen klickten nun mal seltener auf Überschriften, die nicht mit ihrer Meinung übereinstimmten, referierte Zuckerberg weiter. Der Mensch neige offenbar dazu, Dinge auszublenden, die nicht zur eigenen Weltsicht passten. "Ich weiß nicht, was man dagegen unternehmen kann", sagte Zuckerberg.

Wirklich überzeugend wirkte das nicht. Nicht für einen Mann, der auf lange Sicht mit seinem unsagbar großen Vermögen nichts weniger bezweckt als die Rettung der Menschheit.

mit dpa
Mehr lesen über
Die Wiedergabe wurde unterbrochen.