Samstag, 16. Dezember 2017

Alle Artikel und Hintergründe

Wie das Recht den Fortschritt ausbremst Das deutsche Dilemma bei der Künstlichen Intelligenz

Künstliche Intelligenz (KI) scheitert in Deutschland nicht an der Technik - oder zumindest in naher Zukunft nicht mehr. Das Problem sind die rechtlichen Rahmenbedingungen - vor allem deshalb, weil es keinen gesellschaftlichen Konsens darüber gibt, welche Regelungen für den Umgang mit KI überhaupt notwendig sind. Sie denken, das betrifft Sie nicht?

Philipp Reusch
  • Copyright: Reuschlaw Legal Consultants
    Reuschlaw Legal Consultants
    Philipp Reusch ist Gründer von Reuschlaw Legal Consultants und Lehrbeauftragter an der RWTH Aachen. Reuschlaw mit Sitz in Berlin und Saarbrücken ist eine auf Haftungsrecht spezialisierte Boutique mit Schwerpunkt in den Branchen Autozulieferer, Anlagen- und Maschinenbau sowie Konsumgüter und Medizinprodukte.

Die mangelnde rechtliche Klarheit in Deutschland wird wohl dazu führen, dass wir auf viele Dinge länger werden warten müssen als Menschen in anderen Ländern. Auf das autonome Fahren etwa, egal ob im Auto oder bei anderen Verkehrsarten. Oder auch auf autonome Medizin und jede andere Entwicklung, bei der eine Maschine statt eines Menschen Entscheidungen von großer Reichweite für andere Menschen trifft. Der Grund: In Ländern wie den USA ist "nicht geregelt" erst einmal gleichbedeutend mit "ist erlaubt". Nicht so in Deutschland. Hier herrscht in diesem Fall maximale rechtliche Unsicherheit.

Das eigentliche Problem in diesen Anwendungen sind Dilemmata, also Situationen, in denen Menschen sich unter mindestens zwei negativen Varianten für eine entscheiden müssen. Ein Experiment am MIT Media Lab macht das deutlich: Ein Auto fährt auf einen Zebrastreifen zu, als plötzlich die Bremsen versagen. Der Fahrer könnte nun in die Menschengruppe rasen, die gerade die Straße überquert - oder aber ihr ausweichen und stattdessen Passanten auf dem Gehweg überrollen. Das ist das Wesen von Dilemmata: Es gibt einen unvermeidbaren tragischen Ausgang, egal welche Entscheidung man trifft.

Die Verdinglichung des Menschen

Nun gibt es diese Dilemmata schon lange, im Straßenverkehr wie in vielen anderen Situationen. Im Grundsatz ändert KI daran nichts. Heute allerdings entscheidet der Fahrer im Auto in solchen Situationen instinktiv, reflexartig, in jedem Fall nicht anhand einer umfassenden Bewertung aller Kriterien. Zudem ist davon auszugehen, dass jedes Individuum andere Ursachen für seinen jeweiligen Reflex hat und in der gleichen Situation instinktive, aber unterschiedliche Reaktionen zeigt.

Werden dabei Menschen geschädigt, ist das strafrechtlich und im Hinblick auf die entstehenden Schäden auch zivilrechtlich relevant. Die eigentlich bestehende Strafbarkeit und zivilrechtliche Haftung hierfür wird allerdings wegen ihrer Unausweichlichkeit ausnahmsweise entschuldigt; der rechtliche Begriff hierfür ist der "übergesetzliche Notstand".

Was passiert aber, wenn Menschen durch Maschinen ersetzt werden? Diese treffen in Dilemmata dieselben Entscheidungen, rufen dieselben Schäden hervor. Aber nach bisheriger Rechtslage werden sie nicht genauso behandelt wie Menschen. Die Programmierung eines Systems - auch eines selbst lernenden - legt in der Basis die Möglichkeiten an, mit der spätere Dilemmata entschieden werden. Das System - die KI - lernt hinzu und bewegt sich innerhalb der Grenzen, die gesetzt oder eben auch nicht gesetzt wurden. Im Gegensatz zum obigen Beispiel entscheidet also nicht die Person, die sich in der Dilemma-Situation befindet über deren Ausgang. Vielmehr entscheiden - quasi am grünen Tisch - vorab der Programmierer und dessen Regeln darüber, wie die später beteiligten Personen behandelt werden.

Das kommt einer Verdinglichung des Menschen gleich; diese wiederum greift tief in die Menschenwürde ein, was das Bundesverfassungsgericht in vielen vergleichbaren Fällen immer wieder deutlich als mit dem Grundgesetz nicht vereinbar gekennzeichnet hat. Das markanteste Beispiel ist die Diskussion um die vom damaligen Bundesverkehrsminister angeregte Abschussermächtigung für von Terroristen gekaperte Flugzeuge. Hier hat das Bundesverfassungsgericht deutlich gemacht, dass die Opferung einer begrenzten Zahl von Passagieren selbst dann gegen die Menschenwürde verstößt, wenn damit eine größere Zahl an Unbeteiligten gerettet würde. Leben ist schlicht nicht gegen Leben aufrechenbar.

Fehlender ethischer Konsens

Auf KI angewandt bedeutet dies, dass vorprogrammierte Entscheidungswege derzeit nicht mit dem Grundgesetz in Einklang zu bringen sind. Was Deutschland braucht, ist daher eine grundsätzliche Debatte darüber, ob wir als Gesellschaft die Gleichbehandlung falscher Entscheidungen durch Maschinen mit denen von Menschen akzeptieren wollen. Und wenn ja, innerhalb welcher Grenzen. Nur dann können die offensichtlichen Vorteile von autonom handelnden Systemen auch für die Verkehrssicherheit nutzbar gemacht werden. Doch diese Debatte findet noch nicht ausreichend statt.

Es wäre die Aufgabe des Gesetzgebers, Regeln zu schaffen, die es ermöglichen, KI-Systeme wie den Menschen anhand der tatsächlichen Handlung zu messen. Fehlerhaft handelnde Systeme müssten dementsprechend durch - staatlich organisierte - Überwachung entdeckt und aus dem Verkehr gezogen werden können. Wie ein betrunkener Autofahrer. Und es müsste klar sein, wer in solchen Fällen haftet. Derzeit sind das - mit hoher Wahrscheinlichkeit - die Hersteller.

Somit können autonome Systeme entweder erst dann eingesetzt werden, wenn keine Dilemmata mehr entstehen können. Die dafür notwendige technische Infrastruktur liegt allerdings noch in weiter Ferne. Oder aber, wenn sie rechtlich dem Menschen gleichgestellt werden. Dies wiederum scheitert bislang an der Rechtslage und am fehlenden ethischen und gesellschaftlichen Grundkonsens. Die Überlegungen der Ethik-Kommission vom Juni dieses Jahres haben daran nichts geändert.

© manager magazin 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der manager magazin Verlagsgesellschaft mbH