Künstliche Intelligenz Googles Gorilla-Problem - und die fatalen Folgen einer KI-Monokultur

Weibliche virtuelle Assistenz: KI-Experten warnen vor schwerwiegenden Folgen einer nicht-diversen KI

Weibliche virtuelle Assistenz: KI-Experten warnen vor schwerwiegenden Folgen einer nicht-diversen KI

Foto: Getty Images

Amazon-Chef Jeff Bezos ist Star-Trek-Fan. Ein so eingefleischter, dass er vor zwei Jahren sogar im 2016er-Sequel "Startrek Beyond" eine Gastrolle ergatterte . Wenig erstaunlich also, dass wie das sprechende Betriebssystem LCARS seiner Lieblingsserie auch die Amazon-Assistentin Alexa standardmäßig mit einer weiblichen Stimme spricht.

Aber nicht nur Alexa ist per Grundeinstellung weiblich. Auch Apples Siri, Microsofts Cortana und die Stimme von Googles Assistenzsysteme reagieren standardmäßig mit weiblichen Stimmen, wenn Benutzer Informationen abfragen, Bestellungen aufgeben oder anordnen, welche Aufgaben die virtuellen Assistenten als nächstes erfüllen sollen.

Dass sie alle weibliche Stimmen haben, ist kein Zufall. Test hätten ergeben, dass weibliche Stimmen als "gefälliger" empfunden würden - sowohl von Frauen als auch von Männern, begründete Amazon die Wahl der weiblichen Standard-Stimme. Auch eine Untersuchung von Wissenschaftlern der Stanford-Universität 2006  ergab, dass Anwendungen mit weiblicher Stimme als "hilfreicher" und "liebevoller" wahrgenommen werden.

Was an sich ja nichts problematisches ist. Dennoch sollten Entwickler, die solche Sprach-Anwendungen programmieren, sich solcher Implikationen bewusst sein, fordert der AI-Experte Robert Locascio, der mit seinem Unternehmen LivePerson künstlich intelligente Chatbotsentwickelt. Schließlich sei es das erste Mal, "dass Technologie ein Geschlecht" habe - anders als Webseiten.

Warum Standards schon jetzt nötig sind

Dass vor allem Frauenstimmen bei den Assistenten eingesetzt werden, wertet Locascio vor allem deshalb als alarmierend, "weil viele Erwachsene Lautsprecher beschimpfen, wenn sie nicht das machen, was sie sollen", sagt er. Google führte wegen der unflätigen Beschimpfungen vieler Nutzer sogar eine Option ein, mit der die Assistenz nur auf Anfragen mit "bitte" reagiert.

Zusammen mit Prominenten wie Wikipädia-Gründer Jimmy Wales, der Verlegerin und Autorin Ariana Huffington und anderen Unternehmern und Wissenschaftlern hat Locascio nun die Initiative "Equal AI" ins Leben gerufen, die für die unbewussten Folgen solcher Geschlechtsspezifika sensibilisieren soll.

Denn nicht nur die Wahrnehmung von KI spielt eine Rolle. Auch bei der Entwicklung von KI-Anwendungen sollten Diversitätsaspekte berücksichtigt werden - schon aus Qualitätsgründen, fordert Locascio im Gespräch mit manager magazin online.Schließlich könnten populäre Anwendungen wie Chatbots nur so gut sein, wie die Software, mit der sie entwickelt werden. Und bei deren Konzeption spielten immer noch Menschen eine Rolle.

"Wenn Frauen und Männer Bots êntwickeln, unterscheiden diese sich oft beträchtlich", erzählt Locascio. "Während sie bei Frauen eher auf Tonalitäten achten sind Männer oft sehr viel funktionaler orientiert.", so der LivePerson-CEO. Für ein ideales Ergebnis seien aber beide Herangehensweisen sinnvoll.

Normalerweise würden neue Technologien eingeführt - und dann nach und nach weiterentwickelt, sagt er. "Bei dieser Technologie ist das aber keine gute Herangehensweise, weil die Auswirkungen so massiv sind. Da muss man im Vorhinein Standards schaffen", so der Mitgründer von Equal AI.

Wenn der eingebaute Bias die ganze Anwendung zerschießt

Dass AI-Anwendungen, wenn sie - oft auch unbewusst - mit einem Gender oder Rassen-Bias geschaffen werden, einfach dysfunktional und sogar schädlich sein können, musste auch Jeff Bezos bei Amazon erfahren.

So entsorgte der Onlinehändler laut einem Bericht der Nachrichtenagentur Reuters  kürzlich ein AI-basiertes Programm, das eigentlich bei der Bewerberauswahl hätte helfen sollen und die geeignetsten Bewerber vorsortieren sollte. Da das Programm aber von alten Einstellungsentscheidungen lernte, in denen männlichen Bewerbern oft der Vorzug gegeben wurde, bewertete es Angaben wie "Frauen-Uni" oder "Frauen-Schachclub" im Lebenslauf als negativ. Und benachteiligte so weibliche Bewerberinnen. Als dies den Verantwortlichen schließlich auffiel, sich das Problem aufgrund des Selbstlern-Mechanismus aber nicht so einfach abstellen ließ, flog das Programm dem Bericht zufolge  bei den Recruitern raus.

Wie schwer es ist, solche im System verankerten Fehler wieder zu beheben, musste auch Google lernen. 2015 war dort ein Fehler bei der Google-Bilderkennung aufgetaucht, bei der afroamerikanische Gesichter als "Gorillas" identifiziert  wurden. 2018 deckte die Zeitschrift "Wired" auf, dass Google das Problem gar nicht grundsätzlich gelöst hatte. Der Suchkonzern hatte laut "Wired" einfach das Label "Gorilla" entfernt.

Die Wiedergabe wurde unterbrochen.