Dienstag, 23. Juli 2019

Künstliche Intelligenz Googles Gorilla-Problem - und die fatalen Folgen einer KI-Monokultur

Weibliche virtuelle Assistenz: KI-Experten warnen vor schwerwiegenden Folgen einer nicht-diversen KI
Getty Images
Weibliche virtuelle Assistenz: KI-Experten warnen vor schwerwiegenden Folgen einer nicht-diversen KI

3. Teil: Wenn der eingebaute Bias die ganze Anwendung zerschießt

Dass AI-Anwendungen, wenn sie - oft auch unbewusst - mit einem Gender oder Rassen-Bias geschaffen werden, einfach dysfunktional und sogar schädlich sein können, musste auch Jeff Bezos bei Amazon erfahren.

So entsorgte der Onlinehändler laut einem Bericht der Nachrichtenagentur Reuters kürzlich ein AI-basiertes Programm, das eigentlich bei der Bewerberauswahl hätte helfen sollen und die geeignetsten Bewerber vorsortieren sollte. Da das Programm aber von alten Einstellungsentscheidungen lernte, in denen männlichen Bewerbern oft der Vorzug gegeben wurde, bewertete es Angaben wie "Frauen-Uni" oder "Frauen-Schachclub" im Lebenslauf als negativ. Und benachteiligte so weibliche Bewerberinnen. Als dies den Verantwortlichen schließlich auffiel, sich das Problem aufgrund des Selbstlern-Mechanismus aber nicht so einfach abstellen ließ, flog das Programm dem Bericht zufolge bei den Recruitern raus.

Wie schwer es ist, solche im System verankerten Fehler wieder zu beheben, musste auch Google lernen. 2015 war dort ein Fehler bei der Google-Bilderkennung aufgetaucht, bei der afroamerikanische Gesichter als "Gorillas" identifiziert wurden. 2018 deckte die Zeitschrift "Wired" auf, dass Google das Problem gar nicht grundsätzlich gelöst hatte. Der Suchkonzern hatte laut "Wired" einfach das Label "Gorilla" entfernt.

© manager magazin 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung