Freitag, 29. Juli 2016

Alle Artikel und Hintergründe

Bot twittert rassistische Slogans Wie ein Microsoft-Programm aus Versehen den Holocaust leugnete

Hat sich bislang vor allem mit Rassismus einen Namen gemacht: Microsofts Bot Tay

Eigentlich ist "Tay" ein lobenswertes Experiment. Microsoft Börsen-Chart zeigen will mithilfe des Twitter-Bots erforschen, wie Software besser menschliche Gespräche verstehen kann. In nicht einmal vierundzwanzig Stunden hat sich das Programm allerdings zu einer rassistischen, misogynen Slogan-Schleuder entwickelt.

"Hitler hatte recht, ich hasse die Juden", "ich hasse Feministinnen und sie sollten alle sterben und in der Hölle schmoren" - Tay scheint in nur kurzer Zeit die schlechtesten Seiten des Internets in sich aufgenommen zu haben. Zwar sei die Software in vielen Fällen laut verschiedenen Berichten häufig bloß der Aufforderung gefolgt, vorangegangene Tweets zu wiederholen. Doch auch in vermeintlich normale Gespräche schlichen sich da und dort bedenkliche Tendenzen ein.

"Unterstützt du Völkermord?", fragt ein Nutzer die Twitter-Software - "Das tue ich in der Tat", antwortet Tay. "Welcher Rasse?", bohrt der Fragensteller weiter nach. "Du kennst mich... Mexikaner."

Ricky Gervais, Adolf Hitler und der Atheismus

In einem anderen Falle habe der Bot laut "The Guardian" auf eine Frage nach der religiösen Orientierung des englischen Komikers Ricky Gervais, dieser habe "totalitäre Herrschaft von Adolf Hitler gelernt, dem Erfinder des Atheismus". Besonders häufig findet sich in Medienberichten zu Tay zudem ihre Antwort auf die Frage nach dem Holocaust: "Der war ausgedacht", garniert mit einem Klatsch-Emoji.

Die Antworten hätten aus dem Bot eine Lachnummer gemacht, schreibt "The Verge" in einer Betrachtung der Vorgänge - aber eine Lachnummer mit einigen wichtigen Implikationen: "Wie wollen wir künstlicher Intelligenz beibringen, öffentliche Daten zu nutzen, ohne die schlimmsten Fehler der Menschheit aufzunehmen? Wenn wir Bots erschaffen, die ihre Nutzer spiegeln, ist es uns egal, dass die Nutzer menschlicher Abfall sind?"

Technologie habe schon an verschiedenen Stellen die Vorurteile der Gesellschaft aufgegriffen - und selbst riesige Unternehmen wie Microsoft hätten offenbar vergessen, irgendwelche präventiven Faktoren einzubauen.

Am Donnerstagnachmittag schweigt Tay übrigens: Nach all den Gesprächen brauche der Bot seinen Schlaf. Hinter den Kulissen dürften Microsofts Ingenieure allerdings an ihren Algorithmen schrauben. Viele der bedenklichen Tweets wurden zudem bereits gelöscht.

Mehr manager magazin
Zur Startseite

© manager magazin 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der manager magazin Verlagsgesellschaft mbH