Dienstag, 20. November 2018

Künstliche Intelligenz Googles Gorilla-Problem - und die fatalen Folgen einer KI-Monokultur

Weibliche virtuelle Assistenz: KI-Experten warnen vor schwerwiegenden Folgen einer nicht-diversen KI
Getty Images
Weibliche virtuelle Assistenz: KI-Experten warnen vor schwerwiegenden Folgen einer nicht-diversen KI

Amazon-Chef Jeff Bezos ist Star-Trek-Fan. Ein so eingefleischter, dass er vor zwei Jahren sogar im 2016er-Sequel "Startrek Beyond" eine Gastrolle ergatterte. Wenig erstaunlich also, dass wie das sprechende Betriebssystem LCARS seiner Lieblingsserie auch die Amazon-Assistentin Alexa standardmäßig mit einer weiblichen Stimme spricht.

Aber nicht nur Alexa ist per Grundeinstellung weiblich. Auch Apples Siri, Microsofts Cortana und die Stimme von Googles Assistenzsysteme reagieren standardmäßig mit weiblichen Stimmen, wenn Benutzer Informationen abfragen, Bestellungen aufgeben oder anordnen, welche Aufgaben die virtuellen Assistenten als nächstes erfüllen sollen.

Dass sie alle weibliche Stimmen haben, ist kein Zufall. Test hätten ergeben, dass weibliche Stimmen als "gefälliger" empfunden würden - sowohl von Frauen als auch von Männern, begründete Amazon die Wahl der weiblichen Standard-Stimme. Auch eine Untersuchung von Wissenschaftlern der Stanford-Universität 2006 ergab, dass Anwendungen mit weiblicher Stimme als "hilfreicher" und "liebevoller" wahrgenommen werden.

Was an sich ja nichts problematisches ist. Dennoch sollten Entwickler, die solche Sprach-Anwendungen programmieren, sich solcher Implikationen bewusst sein, fordert der AI-Experte Robert Locascio, der mit seinem Unternehmen LivePerson künstlich intelligente Chatbotsentwickelt. Schließlich sei es das erste Mal, "dass Technologie ein Geschlecht" habe - anders als Webseiten.

Seite 1 von 3

© manager magazin 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der manager magazin Verlagsgesellschaft mbH