Montag, 30. März 2020

Algorithmen haben kein Gewissen Was bei Künstlicher Intelligenz gerade schiefläuft

Nur niedlich? Künstliche Intelligenz bringt lernfähige Algorithmen hervor. Dabei haben wir zu einem gewissen Grad die Kontrolle.

Ob autonomes Fahren oder Roboter in der Arbeitswelt - Künstliche Intelligenz (KI) ist eines der meistdiskutierten Themen unserer Zeit. Immer öfter verlassen wir uns bei Entscheidungen auf lernfähige Algorithmen, die uns unseren Alltag erleichtern. Doch mit ihrer zunehmenden Verbreitung wachsen auch die Bedenken. Denn trotz all ihrer positiven Eigenschaften haben Algorithmen eines (noch) nicht: ein Gewissen. Wir steuern auf ein Innovationsdilemma zu - das wir nur mit einer Gewissensentscheidung lösen können.

Baha Jamous
  • Copyright: Hapimag
    Hapimag
    Baha Jamous ist Chief Marketing Officer des Schweizer Reiseanbieters Hapimag. Zuvor war er unter anderem für die Kommunikationsberatung HeringSchuppener und Rocket Internet tätig.

Algorithmen haben die Moral ihrer Entwickler

Die gute Nachricht: Algorithmen sind per se keine fremden Mächte, die über unser Handeln bestimmen. Ganz im Gegenteil: Sie werden von Menschen programmiert, trainiert und eingesetzt. Insofern spiegeln Algorithmen lediglich die Werte und Vorstellungen wieder, die wir verkörpern. Kurz: Algorithmen haben die Moral ihrer Entwickler.

Die schlechte Nachricht: Lernfähige Algorithmen bergen potenzielle Gefahren, zum Beispiel wenn KI Frauen systematisch bei Bewerbungsverfahren diskriminiert oder aber Inhalte politischer Extremisten in sozialen Netzwerken verstärkt ausgespielt werden. Daher müssen wir uns fragen, wie weit Anspruch und Realität in Bezug auf unsere gelebten Werte auseinander gehen. Das aktuelle gesellschaftliche Klima zeigt, dass die Grenzen ethischen Handelns verschoben sind. Angesichts der Tatsache, dass Algorithmen im Zuge der Automatisierung immer mehr Verantwortung übernehmen, ist eine kritische Diskussion notwendig. Wir brauchen eine globale Antwort auf ethische Dilemmata und Grenzfälle wie etwa das bekannte Trolley-Problem. Bis dahin werden die meisten Menschen KI stets mit Skepsis begegnen und weitere Innovationen sehr wahrscheinlich blockieren.

Wir müssen den Menschen vor sich selbst schützen

Für die meisten Unternehmen ist die Gewinn- und Profitmaximierung immer noch das oberste Gebot. Mit dem Aufkommen gesellschaftlicher Legitimationskrisen in der Wirtschaft durch Bewegungen wie Fridays for Future findet jedoch eine Verschiebung der Fixsterne unserer Ökonomie statt. Man spricht auch von der Lust der Moralisierung. Wir müssen unser Handeln stärker denn je auf seine gesamtgesellschaftlichen Auswirkungen reflektieren. Denn datengetriebenes Denken und datenbasiertes Management, wie wir es heute praktizieren, kennt bislang nur die eine Maxime, die wir ihr beigebracht haben: maximale Effizienz.

Gleichzeitig führen die Beschleunigungs- und Konzentrationseffekte der Digitalisierung dazu, dass Algorithmen wie ein Katalysator unserer gelebten Werte und Normen fungieren. Überlässt man einer KI zum Beispiel unkontrolliert die Bewerberauswahl bei einer Stellenbesetzung, kann das zu Diskriminierung führen, basierend auf den (vorurteilsbehafteten) Auswahlprozessen der Vergangenheit. Das ist für die KI weder gut noch schlecht, es ist lediglich ein Abbild unseres bisherigen Handelns. Aber wollen wir das wirklich?

Insofern müssen wir den Menschen vor sich selbst schützen. Letztlich sind Algorithmen ein Spiegel unserer eigenen Unzulänglichkeiten und sollten uns helfen, Fehler und Risiken zu minimieren.

Wir brauchen eine Ethik 4.0

Wenn wir uns diese Fragen stellen, bekommt die Frage nach "gut" oder "schlecht" im Kontext von KI auch eine ganz andere Bedeutung. Gut für wen? Für das Unternehmen? Die Wirtschaft? Die Umwelt? Den Menschen? Kant sagte einst: "Handle so, dass die oberste Maxime deines Handelns zugleich als allgemeine Gesetzgebung für alle gilt." Im übertragen Sinne bedeutet das: Entwickle Algorithmen so, dass ihre datenbasierten Entscheidungen das Beste für die Gesellschaft im Sinn haben.

Das Beispiel einer KI, die Frauen bei der Stellenbesetzung systematisch aussortiert, offenbart das Problem in der Logik vieler Algorithmen: Sie treffen ihre Entscheidungen auf Basis von vergangenheitsbezogenen Daten. Was sagt das über die Anfälligkeit von Algorithmen aus? Oder anders gefragt: Was sagt das über unsere heutige Gesellschaft und die Welt aus, in der wir leben möchten? Fakt ist, dass wir heute noch sehr weit entfernt von einer Ethik sind, die die Herausforderungen durch KI behandelt. Wir brauchen deshalb eine Ethik 4.0.

Bislang steht Ethik in einem Spannungsfeld von Kultur, Religion und Recht, so dass gemeinsame Wertvorstellungen bereits an Landesgrenzen halt machen. Während die führenden Industrienationen diese Diskussion aktiv führen und eigene Richtlinien erarbeiten, schaut ein großer Teil der Welt nur zu. Aus einer solchen Fragmentierung kann kein globaler Standard entstehen. Wir müssen deshalb eine grundlegende globale Diskussion darüber führen, ob wir Entscheidungen in Zukunft gesinnungs- oder verantwortungsethisch treffen wollen. Diese Gewissensentscheidung kann uns kein Algorithmus abnehmen.

Technologie kann keine Verantwortung übernehmen

Die Logik, nach der viele Algorithmen heute funktionieren, zeigt uns: Sie verstärken Tendenzen, gesellschaftliche Strömungen und Stimmungen. Ganz wertfrei, ohne ein Vorurteil. Eine KI ist deshalb nicht böse. Sie führt nur das aus, was sie an Input bekommt. Es liegt deshalb an uns, den Menschen, Verantwortung für diese Entscheidungen zu übernehmen. Wir können KI selbstverständlich einsetzen. Nur dürfen wir ihr die Entscheidungsfindung und -gewalt nicht gänzlich überlassen. Wir dürfen unsere Verantwortung nicht auslagern. Es gibt zwei Schritte zwischen Daten und einer datengetriebenen Entscheidung, die nur der Mensch vornehmen sollte: (1) Auf Basis von Informationen Normen zu entwickeln und (2) diese Normen mit Moral zu koppeln, um daraus verantwortungsvolle, gesellschaftlich vertretbare Entscheidungen zu destillieren.

Wir haben zum Teil die Kontrolle verloren

Wir haben zu einem gewissen Grad die Kontrolle verloren, weil einige Wenige die Kontrolle über unser Handeln durch Algorithmen gewonnen haben. Wenn wir uns also darauf besinnen, was gerade schiefläuft, wäre das ein erster, wichtiger Schritt. Wenn wir verstehen, dass reines datengetriebenes Denken und Handeln in Zukunft ein Problem darstellen, weil wir aktuell sehen, was passiert, wenn Algorithmen unser Denken und Handeln unkontrolliert beschleunigen, wäre das ein zweiter, wichtiger Schritt. Und wenn wir uns dann auch noch darauf verständigen können, dass wir deshalb globale ethische Standards für den Einsatz von KI brauchen, die sicherstellen, dass KI im kantschen Sinne in erster Linie dem Wohle der Gemeinschaft zu dienen hat und nicht nur einigen Wenigen auf dieser Welt, dann tötet die KI nicht die Moral, die Moral aber auch nicht die KI. Dann finden wir einen Ausweg aus dem Innovationsdilemma und nutzen Technologie wieder so, wie wir sie schon immer genutzt haben: als Werkzeug, das dem Menschen dient. Und nicht als Götze, dem wir uns und unsere Menschlichkeit opfern.

Baha Jamous ist Chief Marketing Officer des Schweizer Reiseanbieters Hapimag und schreibt hier als Gastkommentator. Gastkommentare geben nicht notwendigerweise die Meinung der Redaktion wieder.

© manager magazin 2020
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung