Was ist Künstliche Intelligenz? KI - ein Definitions-Versuch

Maschinen, die Aufgaben von Menschen übernehmen - oder gar lernfähige Systeme, die einmal die Weltherrschaft übernehmen? Über die Bedeutung von Künstlicher Intelligenz (KI) wird gestritten.
Wladimir Kramnik spielt gegen den Schach-Computer "Deep Fritz" im Jahr 2006

Wladimir Kramnik spielt gegen den Schach-Computer "Deep Fritz" im Jahr 2006

Foto: A3724 Felix Heyder/ dpa

Wenn man Künstliche Intelligenz definieren möchte, stößt man schnell auf das Problem, dass keine einheitliche Definition zu finden ist. Wie kann es dennoch gelingen, zu umschreiben, was KI ist?

Ein rund 50 Jahre alter Witz unter Informatikern beschreibt KI noch als "coole Sachen, die Computer nicht können". Doch das dürfte jede Weiterentwicklung im Keim erstickten. Technologien von damals haben sich längst weiter entwickelt. Allerdings werden auch Statistiken, Business Analytics und manuell programmierte "Wenn-dann-Regeln" als KI bezeichnet. Die meisten Definitionen gehen jedoch darüber hinaus und berücksichtigen den selbstlernenden Charakter.

KI ist allgemein als Überbegriff für Anwendungen zu verstehen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. So beschreibt es der Softwarekonzern SAP . Die Grundidee bestehe darin, durch Maschinen eine Annäherung an wichtige Funktionen des menschlichen Gehirns zu schaffen – Lernen, Urteilen und Problemlösen.

Microsoft formuliert , KI seien Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken. Noch kürzer formuliert der Präsident des Bundesamtes für Sicherheit in der Informationstechnik BSI, Arne Schönbohm : "Künstliche Intelligenz ist eine zentrale Technologie der Digitalisierung". Das Amt setzt sich für standardisierte Prüfverfahren ein, um die Sicherheit der Technologien zu garantieren.

Aufgaben lösen, lernen und sich nach und nach selbst verbessern

Umfassender lautet es beim Softwareanbieter Oracle, der KI als Systeme oder Maschinen bezeichnet , die die menschliche Intelligenz nachahmen, um Aufgaben durchzuführen, und sich basierend auf den gesammelten Daten nach und nach selbst verbessern zu können.

Doch wird KI damit umfassend beschrieben? Wie sehr sich der Blick auf KI verändern kann, zeigt auch ein Rückblick. Vor einigen Jahren wurde noch ein Schachcomputer der KI zugerechnet. Dabei spielte sicherlich die Vorstellung eines perfekten intelligenten Wesens eine Rolle – der Mensch als Vorbild mit hoher kognitiver Leistung. Heute stehen hingegen nicht die Schachzüge eines Computers im Zentrum des Interesses, sondern vielmehr das präzise Greifen und Bewegen einer Schachfigur - ohne andere Figuren anzustoßen und das Spiel zu stören.

Ab wann gilt eine Maschine als intelligent? Schon in den 1950iger Jahre versuchte der Informatiker Alan Turing diese Frage zu beantworten. Er erfand den sogenannten Turing-Test, bei dem ein Fragesteller blind zwei Testpersonen befragt. Die eine Person ist ein Mensch, die andere eine Maschine, die Befragung erfolgt über eine Tastatur. Können beide "Testpersonen" nicht unterschieden werden, gilt die Maschine als ebenbürtig.

Autonomie und Anpassungsfähigkeit

So könnte es ein Weg sein, eine Definition für KI zu finden, indem man die Aspekte benennt, die KI enthalten muss: Da wäre zum einen die Autonomie – also die Fähigkeit, ohne dauerhafte Anleitung durch einen Nutzer Aufgaben in einem komplexen Umfeld zu bewältigen und auszuführen. Und zum anderen wäre ein wichtiger Faktor die Anpassungsfähigkeit – sprich die Fähigkeit aus Erfahrungen zu lernen und dadurch die Leistung zu verbessern.

Doch was besagen die Begriffe starke und schwache KI? Stark als Computertechnologie, die schwierige Aufgaben übernehmen kann, im Gegensatz zu einer schwachen KI, die den Menschen bei der Arbeit unterstützt. So bezieht sich KI meist auf die kognitiven Fähigkeiten. Zu einer vollständigen Simulation menschlichen Handelns dürfte es dabei jedoch (vorerst) nicht kommen, denn neben komplexen Aufgaben und Bewegungen sind Gefühle wie Wut, Liebe, Angst und Freude im Lernprozess der Computer ausgeblendet - auch wenn es Möglichkeiten gibt, diese emotionalen Verhaltensweisen zu simulieren.

KI könnte sich zu einer Gefahr entwickeln, Computer könnten gar die Weltherrschaft übernehmen, warnt manch ein Silicon Valley-Pionier (auch Hollywood griff dieses Thema zum Beispiel in "Matrix" auf). Der Philosoph Richard David Precht widerspricht in seinem Buch "Künstliche Intelligenz und der Sinn des Lebens" dieser These. Dass Computer einen Willen zur Macht entwickelten, sei abwegig, sagt Precht. Nichtsdestotrotz: Dass intelligente Computersysteme über einzelne Bereiche die Kontrolle erlangen könnten, will auch er nicht ausschließen.

akn
Die Wiedergabe wurde unterbrochen.