Zur Ausgabe
Artikel 22 / 41
Vorheriger Artikel
Nächster Artikel
Janina Kugel

Künstliche Intelligenz Der Code der Diskriminierung

Janina Kugel
Von Janina Kugel
Von Janina Kugel
Künstliche Intelligenz und verzerrt trainierte Algorithmen verstärken oft Vorurteile. Gerade Unternehmen sind in der Verantwortung, dass das nicht geschieht.
aus manager magazin 6/2021
"Coded Bias": Auch die Aktivistin Joy Buolamwini macht als Gründerin der Algorithmic Justice League auf das Thema aufmerksam

"Coded Bias": Auch die Aktivistin Joy Buolamwini macht als Gründerin der Algorithmic Justice League auf das Thema aufmerksam

Foto: Everett Collection / picture alliance

Unser gesamtes Leben ist heute von Algorithmen beeinflusst. Umso wichtiger ist es, die Technologien und ihre Auswirkungen auf unser Leben zu verstehen.

In der Industrie steht außer Frage, dass der Einsatz von Algorithmen zu erheblichen Vorteilen führt. Unternehmen nutzen breitflächig künstliche Intelligenz (KI), die Digitalisierung erreicht jeden Winkel der Arbeitswelt. Denken wir an "predictive maintenance" – die Vorhersagbarkeit von Wartungsarbeiten – oder das Einfließen von Verkehrsdaten in die Routenplanung von Logistikunternehmen. Wir können präzisere Prognosen treffen, den ungeplanten Stillstand von Maschinen vermeiden, Warenströme optimieren.

Janina Kugel
Janina Kugel

ist Multiaufsichtsrätin und Senior Advisor. Sie interessiert sich für Leadership, Bildung und vor allem Menschen. Sie war Vorständin bei Siemens.

Algorithmen nutzen Daten zu unserem Kaufverhalten, Social-Media-Konsum oder Musikgeschmack, um unsere Feeds mit angepasster Werbung oder Informationen zu füttern. Aber Algorithmen sind auch im Einsatz, wenn wir sie nicht vermuten.

Beispiele gefällig? Nicht nur das Einkommen entscheidet über die Kreditvergabe, sondern auch der Wohnort. Spracherkennungssysteme funktionieren bei Männern besser als bei Frauen. Gesichtserkennungssysteme arbeiten bei weißen Menschen fast perfekt, bei schwarzen Menschen weisen sie hohe Fehlerquoten auf. Medikamente erzielen höhere Wirkungsgrade bei Männern als bei Frauen. Die Ursache dafür liegt jeweils in den Daten, mit denen die Algorithmen gefüttert werden.

Fehlt den Daten die notwendige Tiefe, stammen sie etwa nur aus der Vergangenheit, bilden sie nur einen Ausschnitt der Bevölkerung oder nur bestimmte Lebensrealitäten ab, dann führen die Algorithmen zu verzerrten Entscheidungen. Dann werden die benachteiligt, deren Daten nicht inkludiert sind. Der Code führt unsichtbar zu Diskriminierung.

Fakt ist: Rund 78 Prozent der KI-Fachkräfte weltweit sind männlich, die meisten weiß oder asiatischer Abstammung. Ihre Lebensrealität prägt somit die meisten Algorithmen. Wenn Softwareentwickler(*)innen nicht aktiv entscheiden, die Datenvielfalt zum Trainieren eines Algorithmus zu erhöhen, bleibt das sogenannte Bias der Daten erhalten – und die KI kann nichts Gutes erreichen.

So erprobte ein amerikanisches Unternehmen ein System zur Vorauswahl potenzieller Mitarbeiter(*)innen auf Basis von Lebensläufen. Der Algorithmus war mit Daten aus der Vergangenheit trainiert worden, nach denen mehr Männer Karriere gemacht hatten als Frauen – also scheinbar die besseren Bewerber waren. Zusätzlich hatte das System implizite Daten verarbeitet wie die ausgeübte Sportart oder die Zugehörigkeit zu Klubs, die ebenfalls Hinweise auf das Geschlecht zuließen und zur Bevorzugung von Männern führte. Zum Glück fiel es auf, und zwar Menschen.

Solche Korrelationen sind Teil der Softwareentwicklung. Allerdings bilden Korrelationen nicht automatisch Kausalzusammenhänge ab. Und wenn ein Algorithmus nicht entscheiden kann, was kausal relevant ist und was nicht, kommt es zu absurden Ergebnissen. Im genannten Fall hätte man keine Frauen mehr eingestellt.

Um dies zu verhindern, sollten wir klare ethische Überlegungen anstellen. Softwareentwicklung muss das soziale Gefüge einer Gesellschaft berücksichtigen und diverse Erfahrungen und Lebensrealitäten einschließen. Es braucht nicht nur die Perspektiven der Ingenieurwissenschaften, sondern auch die der Sozial- und Geisteswissenschaften, der Philosophie und der Ökonomik. Ohne Abwägung der existierenden Ungleichheiten in der heutigen Gesellschaft werden Vorurteile sonst reproduziert oder sogar verstärkt.

Künstliche Intelligenz kann nur mathematische Entscheidungen treffen, keine ethischen. Darum liegt es gerade in der gesellschaftlichen Verantwortung von Unternehmen, nicht den einfachsten Weg zu gehen und nach maximalem betriebswirtschaftlichen Nutzen zu streben. Es reicht nicht, den Code als eine Ansammlung von Nullen und Einsen zu sehen.

Zur Ausgabe
Artikel 22 / 41
Vorheriger Artikel
Nächster Artikel