Zur Ausgabe
Artikel 14 / 17

Warum Expertensysteme niemals Experten ersetzen werden Können Computer denken?

Mit Hochdruck wird in den Labors der Computerkonzerne an Rechnern gearbeitet, die erstmals Anzeichen menschlicher Intelligenz zeigen sollen. Prototypen sogenannter Expertensysteme sind bereits auf dem Markt. Sie können Krankheiten diagnostizieren, Störquellen an Maschinen feststellen, Erdölfunde prognostizieren oder Auskunft in verzwickten Steuerrechtsfragen geben. Demnächst sollen sie auch das Wetter vorhersagen und knifflige Managementprobleme lösen. Wird der Computer eines Tages den Fachmann ersetzen? Der Autor, der in der Anwendung von Künstlicher Intelligenz langjährige Praxiserfahrungen hat, meint nein. Denn ein Mensch benutzt bei seiner Arbeit, selbst bei scheinbar höchst simplen Aufgaben, eine Unmenge an Fertigkeiten und Fähigkeiten, die ihm nur zu einem kleinen Teil bewußt sind. Es ist ungeheuer schwierig, dieses Know-how vollständig zu erfassen, zu beschreiben und in computergerechte Form zu bringen. So werden Expertensysteme nur für ganz enge Spezialgebiete eingesetzt, in denen das benötigte Wissen überschaubar ist. Der Computer ist buchstäblich ein Fachidiot. Zudem sind die heutigen Expertensysteme nicht sonderlich zuverlässig; bei jedem unbekannten Problem sind die Rechner hoffnungslos überfragt und geben völlig unsinnige Antworten. Der Computer wird daher allenfalls als Assistent eines menschlichen Experten eingesetzt werden. Solche "Assistentensysteme" dürften aber durch aus gute kommerzielle Chancen haben.
aus Harvard Business manager 1/1988

BEAU SHEIL ist im Price Waterhouse Technology Centerin Menlo Park (Kalifornien) für das Gebiet Künstliche Intelligenz zuständig. Zu vor arbeitete er unter anderem im Palo Alto Research Center, einer Forschungseinrichtung des Kopiergeräteherstellers Xerox.

Wird Künstliche Intelligenz den Menschen als Arbeitskraft überflüssig machen? Nicht wenige Fachleute glauben, "kluge" Computerprogramme, sogenannte Expertensysteme, könnten schon in naher Zukunft Buchhalter, Wartungstechniker oder Führungskräfte ersetzen. Angesichts solcher Übertreibungen kann der technisch unbedarfte Manager schwer entscheiden, ob er auf den abfahrenden Zug aufspringen oder das Ganze als puren Unfug abtun soll. Künstliche Intelligenz (KI) befindet sich heute in der Tat auf dem Weg vom Forschungslabor zum Kontor und zur Fabrik. Doch die bislang entwickelten Anwendungen in Industrie, Banken und Versicherungen sind noch weit davon entfernt, die vollmundigen Versprechen der Kl-Propagandisten zu erfüllen. Und das Einbinden von Expertensystemen in den Tagesbetrieb eines Großunternehmens verlangt mehr Scharfsinn, als die größenwahnsinnigen Träumer sich vorstellen, die Ingenieure, Juristen oder Finanzfachleute durch Computer ablösen wollen. Verwirrung über die Einsetzbarkeit von KI schaffen nicht zuletzt die großenteils unbewußten Vorstellungen, die wir mit dem Begriff "Intelligenz" verbinden. Denn wir gehen meist davon aus, daß Intelligenz eine Allgemeinfähigkeit sei und obendrein eine meßbare Größe wie Kraft oder Geschwindigkeit. (Das ist ein Grund, warum in Zeitungsberichten KI oft in Zusammenhang mit Hochleistungscomputern gebracht wird, obwohl diese beiden Gebiete wenig miteinander gemein haben.) Die heutige KI-Forschung legt jedoch weit mehr Gewicht auf das spezifische Wissen, das für eine bestimmte Aufgabe benötigt wird, als auf die Rechenleistung, die sie erfordert. Ein relativ langsamer Schachcomputer, der mit den taktischen Spielkenntnissen eines Großmeisters gefüttert wurde, wird besser abschneiden als ein extrem schneller Rechner, der nur die Spielregeln kennt. Wie kann ein Programmierer das Wissen eines erfahrenen Experten einfangen und in Computerkommandos übersetzen? Bei sehr einfachen Spielen wie Dame ist es möglich, alle denkbaren Spielsituationen mit dem jeweils bestgeeigneten Zug zu erfassen und in den Computerspeicher einzugeben. Die Maschine kann dann in jeder Spielphase eine optimale Entscheidung treffen, indem sie einfach die gegebene Spielsituation und den dafür vorgesehenen Zug aus der gespeicherten Liste abruft. Alternativ könnte der Computer, da die Zahl der zulässigen Züge verhältnismäßig klein ist, in jeder Situation den Spielverlauf mit allen Verästelungen bis zu Sieg oder Niederlage durchanalysieren. Bei hochkomplexen Spielen wie Schach ist weder das eine noch das andere möglich - die Komplexität der erlaubten Zugkombinationen bis Spielende übersteigt um ein Millionenfaches die Rechenleistung der schnellsten Supercomputer. In solchen Fällen muß das Wissen, mit dem ein Expertensystem programmiert wird, einen Kompromiß zwischen spezifischen Antworten auf bestimmte Situationen, von denen es stets zu viele gibt, und allgemeinen Prinzipien bilden - deren Anwendbarkeit im Einzelfall höchst zweifelhaft sein kann (siehe auch den Kasten "Regelbasierte Systeme"). Der kommerzielle Reiz solcher wissens- oder regelbasierter Systeme besteht hauptsächlich darin, daß sie ein Rechnerverhalten steuern können, daß mit konventioneller Software kaum zu erzielen ist. Insbesondere scheinen regelbasierte Expertensysteme sehr gut geeignet zu sein, diagnostische Routineentscheidungen zu treffen, wie sie etwa Ärzte oder Wartungstechniker Tag für Tag fällen müssen. Solche Entscheidungen sind bei weitem zu komplex, um erschöpfend mit Algorithmen oder ähnlichen, auf apriorischen Prinzipien beruhenden Verfahren beschrieben werden zu können, doch sie lassen sich offensichtlich ganz gut mit Faustregeln bewältigen, die hinreichend durch situationsgebundene Handlungsanweisungen definiert sind. Selbst wenn es nicht möglich ist, eine Aufgabe mit wissensbasierten Expertensystemen vollständig zu spezifizieren und zu automatisieren, kann KI für einzelne Arbeitsschritte genutzt werden. Computertechnik verlangt Präzision. Eine exakte, detaillierte Beschreibung des Wissens, das für das Ausführen einer komplexen Aufgabe benötigt wird, kann an sich schon nützlich sein. Oft wissen nur die Leute, die eine bestimmte Arbeit tun, ganz genau, welche Kenntnisse hierfür erforderlich sind. Doch nur selten geben sie sich Rechenschaft darüber, geschweige denn, daß sie ihr Know-how anderen mitteilen. Die Konsequenz: Die systematische Beschreibung des Wissens, das für ein Expertensystem benötigt wird, enthüllt zuweilen alarmierende Wissenslücken und Widersprüche. Auch wenn dies nicht der Fall ist, kann eine formale Beschreibung ein wertvolles Mittel sein, um das in langen Jahren gesammelte Know-how eines Unternehmens konzentriert zusammenzufassen; oft geht es ja verloren, wenn wichtige Mitarbeiter gehen oder versetzt werden. Und sind Wissen und Erfahrung schwarz auf

weiß festgehalten, dann lassen sie sich leichter im ganzen Unternehmen verbreiten. Meist ist es jedoch unmöglich, das Wissen, das ein Mensch bei seiner Arbeit nutzt, komplett zu ermitteln und erschöpfend zu formalisieren. Folglich sind Expertensysteme häufig so ausgelegt, daß sie dem Anwender nur bei einzelnen Aspekten seiner Aufgaben helfen können; er muß die Antworten des Computers richtig zu deuten verstehen und verhindern, daß das Expertensystem zum Lösen von Problemen verwendet wird, für die es nicht geeignet ist. Vor allem bei Kl-Programmen, die von hochqualifizierten Fachleuten benutzt werden, ist darauf zu achten, daß die vorgesehenen Einsatzfelder strikt begrenzt werden. Da Experten mit Spezialkenntnissen meist knapp und teuer sind, kann es bereits eine gute Investition sein, wenn nur ein kleiner Teil ihrer Aufgaben vom Computer übernommen wird. Und da ihre Entscheidungen häufig weitreichende Konsequenzen haben, ist es von großem Nutzen, wenn die Qualität dieser Entscheidungen durch zusätzliche Informationen, Analysen oder dem Abgleich mit allgemein anerkannten Regeln verbessert wird, um Fehler nach Möglichkeit von vornherein zu vermeiden. Das Expertensystem von Schlumberger für geologische Analysen ist hierfür ein gutes Beispiel. Bereits 1980 hat der Meßgerätehersteller Kl-Programme entwickelt, um die Ergiebigkeit neu entdeckter Ölvorkommen mit Hilfe von Messungen während der Probebohrungen zu bestimmen. Diese Analysen werden von einem Team hochqualifizierter Geologen durchgeführt; anhand ihrer Erkenntnisse werden die Folgeinvestitionen getroffen. Diese Experten sind sehr knapp; sie auszubilden und anzuwerben verschlingt einen Haufen Geld. Aus diesen Gründen wollte Schlumberger geologische Analysen auf den Computer übertragen. Trotz immenser Investitionen hat das Unternehmen jedoch bislang kein Kl-Programm entwickeln können, dessen Treffsicherheit an die erfahrenen Fachleute heranreicht. Die Expertensysteme liefern zwar mittlerweile so gute oder schlechte Prognosen wie junge Geologen, die frisch von der Universität kommen. Doch die Ölgesellschaften vertrauen dem Computer nicht das letzte Wort bei der Entscheidung an, ob weitergebohrt werden soll oder nicht. Gemessen am ursprünglichen Ziel könnte man das als Fehlschlag interpretieren. Doch das Projekt hat eine Vielzahl "intelligenter" Hilfsmittel hervorgebracht, die Geologen bei bestimmten Teilaufgaben helfen können - beispielsweise bei der Auswahl von Software für numerische Analysen. Die Kl-Computer haben sich als so nützlich erwiesen, daß sie mittlerweile an Bohrstandorten in der ganzen Welt zu finden sind.

Der Computer ist ein Fachidiot

Der Intelligenzbegriff, der Expertensystemen zugrundeliegt, hat einige überraschende Implikationen. Wenn beispielsweise Sachkunde durch die Menge des benötigten Wissens und nicht durch Denkvermögen definiert wird, dann verlangt gute Leistung offensichtlich ein gewaltiges Maß an Kenntnissen. Betrachten wir etwa den Unterschied zwischen den Regeln des Schachspiels, die auf wenigen Seiten niedergelegt werden können, und den Hunderten von Lehrbüchern, Analysen und Kommentaren zum Schachspielen. Ein Großmeister hat lange Jahre damit zugebracht, die Fachliteratur zu studieren. Um mit einem erfahrenen menschlichen Spieler mithalten zu können, muß ein Schachcomputer sie ebenfalls "kennen". Die Konsequenz liegt auf der Hand: Die schiere Masse ist das Hauptproblem beim Erfassen und computergerechten putergerechten Kodieren des Wissens, das zum Schachspielen (oder für eine ähnlich komplexe menschliche Tätigkeit) benötigt wird. Es wird mithin einfacher sein, Expertensysteme für hochspezialisierte Probleme zu entwickeln als für breite Anwendungen, da das erforderliche Wissen in der Regel mit dem Spezialisierungsgrad abnimmt. Beim Menschen ist es jedoch genau umgekehrt: Er wird erst zum Spezialisten, wenn er zuvor eine fundierte Allgemeinbildung und Basiswissen in seinem Fach erworben hat. Breite Fachkenntnisse in Bits und Bytes umzusetzen, ist jedoch so schwer, daß die meisten Expertensysteme nur für ganz enge Anwendungen geeignet sind. So gibt es Kl-Programme, die seltene Infektionskrankheiten diagnostizieren können, aber keinerlei Kenntnisse in Allgemeinmedizin haben, oder Computer, die Fehler in Atomkraftwerken entdecken, aber nicht einmal Erstsemesterkenntnisse in Physik haben. Einfache Aufgaben sind in Wahrheit mit den heutigen Expertensystemen schwerer zu bewältigen. Der Grund ist die immense Rolle, die Allgemeinbildung und gesunder Menschenverstand beim Lösen von Alltagsproblemen spielen. Wir benutzen dabei ganz selbstverständlich ein enormes Spektrum von Detailkenntnissen zu den unübersehbar vielen Teilaspekten dieser Probleme. Doch wenn wir eine schwierige Aufgabe zu beurteilen haben, vergessen wir diese Tatsache und befassen uns nur mit der Menge an Kenntnissen, die wir zusätzlich zu unserem Grundwissen benötigen. So halten wir das Entgegennehmen eines Telephonanrufs für eine simple Aufgabe, weil man das mit ganz wenigen Sätzen einem anderen Menschen erklären kann. Die Diagnose von Infektionskrankheiten erscheint uns dagegen als schwieriges Problem, weil es viel Zeit und Energie erfordert, sich zum Arzt ausbilden zu lassen. Aus jeder anderen Perspektive ist Telephonieren jedoch eindeutig weitaus komplizierter als Diagnostizieren, da ein Gesprächspartner am Telephon im Prinzip eine nahezu unbegrenzte Zahl von Fragen oder Problemen ansprechen kann. Darauf eine einigermaßen vernünftige Antwort zu geben, verlangt ein enorm breites, wenn auch nicht unbedingt tiefes Wissen. Der Arzt bewegt sich hingegen bei einer Diagnose in einer viel engeren Welt: Er hat es mit einer relativ kleinen Zahl von Symptomen, Ursachen und Therapien zu tun, die mit weit weniger Informationen erschöpfend beschrieben werden können. Kann man Expertensystemen Allgemeinbildung vermitteln? In verschiedenen Projekten ist schon versucht worden, einen Computer in einem Gewaltstreich mit den gesamten Informationen zu füttern, die etwa in der Encyclopedia Britannica oder dem Großen Brockhaus enthalten sind. Doch diese Vorhaben scheiterten aus einem einfachen Grund: Die meisten Artikel in einem Lexikon sind nur Leuten verständlich, die bereits hinlängliche Vorkenntnisse haben - Wörterbücher können ja auch nur von Menschen benutzt werden, die die betreffende Sprache beherrschen. Die Katze beißt sich in den Schwanz; alle Lexika sind zirkulär aufgebaut, baut, mit zahllosen Querverweisen, die einen Computer - oder einen völligen Ignoranten - in die Irre führen. In technischer Hinsicht ist es zwar kein unüberwindliches Problem, das Wissen eines gebildeten Menschen so in einzelne Elemente zu gliedern, daß es sich ein Computer Schritt für Schritt in einer streng logischen Abfolge aneignen kann. Doch mit der systematischen Ordnung unseres Wissens plagt sich die abendländische Philosophie bereits seit mehr als zweitausend Jahren herum. Das sollte zumindest Anlaß für ein gewisses Quantum an demütiger Selbstbescheidung sein. Selbst eine Fibel für Schulkinder enthält viele Informationen, die beim heutigen Stand der Technik in kein Expertensystem zu bringen sind. Wie wir Kausalzusammenhänge erkennen, wie wir Ereignisse in eine sinnvolle zeitliche Abfolge von Ursache und Wirkung einordnen, wie wir mit unvollständigen oder zweifelhaften Informationen umgehen, das sind Fragen, die bestenfalls als partiell gelöst betrachtet werden dürfen. Selbst die glühendsten Verfechter der Künstlichen Intelligenz sehen heute ein, wie schwierig diese Probleme sind und wie stark sie sich von dem simplen Muster "Situation - Regel - Handlung" unterscheiden, mit dem Expertensysteme arbeiten. Das ist ein Grund, warum KI-Theoretikern bei den optimistischen Artikeln über Künstliche Intelligenz, von denen heute die Zeitungen voll sind, nicht ganz wohl ist. Unsere begrenzte Fähigkeit, dem Computer menschliches Wissen mundgerecht zu servieren, versperrt der Künstlichen Intelligenz die meisten Einsatzfelder. Expertensysteme werden wohl nur als Hilfsmittel von hochspezialisierten Fachleuten dienen können, da es sehr unwahrscheinlich ist, daß die Aufgaben, die diese Maschinen ausführen, für Laien von irgendeinem Nutzen sind. Die ersten praktikablen Kl-Systeme werden vermutlich für Anwendungen geschaffen werden, die sich aus Laiensicht höchst esoterisch ausnehmen. Auf absehbare Zeit werden wir jedenfalls keine automatischen Sekretärinnen, keine Allzweck-Roboter für den Haushalt und keine rechts- oder heilkundigen Computer erleben.

Der Rechner weiß nicht,
daß er nichts weiß

Hochspezialisierte KI-Anwendungen werfen auch in anderer Hinsicht Probleme auf. Laien, denen ein Computer als "intelligent" beschrieben wird, haben meist maßlos übertriebene Erwartungen. Doch es ist schwer, ihnen einen realistischen Eindruck zu vermitteln. Das liegt zum Teil daran, daß unsere Sprache hier versagt. In Ermangelung einer präzisen Definition von "intelligent" nehmen die meisten Leute an, daß sich ein "intelligenter" Computer genauso verhält wie ein Mensch. Das ist selbstverständlich Unsinn. Doch mit diesem Mißverständnis müssen sich alle Softwareingenieure herumschlagen, die natürlichsprachige Computerkommandos entwickeln. Nehmen wir den Fall, daß ein Vertriebsleiter Informationen aus einer Datenbank abruft. Auf die Frage "Wieviel Umsatz machen wir in der Oberpfalz?" wird der Computer wahrscheinlich mit einem umfassenden Bericht reagieren. Doch wenn unser Manager dann weiter fragt "Wie zuverlässig sind diese Zahlen?", ist der Rechner ratlos - dagegen wird jeder Mensch, der die erste Frage beantworten kann, wohl auch etwas Gescheites zu der zweiten sagen können. Natürlich kann ein Computer so programmiert werden, daß er den Nutzer darauf hinweist, daß er auf eine bestimmte Frage keine Antwort weiß. Doch das Kernproblem bleibt: Was dürfen die Anwender von einer Maschine erwarten, die als "intelligent" verkauft wird? Aus Mangel an klaren Antworten werden sie, das zeigt die Erfahrung, in aller Regel überzogene Vorstellungen von der Leistungsfähigkeit des Computers haben. Wenn der Nutzer dann entdeckt, daß er die Maschine überfordert hat, wird er über die scheinbar willkürlichen Leistungsgrenzen seines Rechners verärgert den Kopf schütteln. Da aber der Computer in der Regel nicht erkennt, daß er etwas nicht weiß, wird der Anwender sich in einen langen, verworrenen Mensch- Maschine-Dialog verwickeln, ehe die Mißverständnisse klar zu Tage treten. Das kann ernste Probleme zur Folge haben. Die meisten medizinischen Expertensysteme haben ein ganz eng begrenztes Fachwissen, sind aber ansonsten Vollidioten. Ein Kl-Computer zur Diagnose von Herzkrankheiten wird wahrscheinlich für einen Patienten, der mit einem gebrochenen Bein eingeliefert wird, eine auf den ersten Blick vernünftig erscheinende, m Wahrheit aber völlig verfehlte Therapie empfehlen. Die Gefahr liegt natürlich darin, daß ein Laie hinter der sachverständig klingenden Antwort wirkliche Kompetenz vermutet und nach dem Rat der Maschine handelt. Marvin Minsky, einer der Pioniere der Künstlichen Intelligenz, sagte einmal: "Intelligenz ist eine Eigenschaft, die die Menschen einem Verhalten zuschreiben, das sie bewundern, aber nicht verstehen." Mit anderen Worten: Das einzige, was "intelligente" Fertigkeiten gemein haben, ist unser Unwissen darüber. Nehmen wir zum Beispiel das Rechenverfahren zum Kürzen eines Bruchs. Kleine Kinder glauben, daß dazu eine Menge Intelligenz gehört. Erwachsene wissen es besser, weil sie den Trick kennen. Oder denken wir an das unglaublich breite Spektrum von Fähigkeiten, die wir als "intelligent" bezeichnen. Es ist klar, warum wir glauben, eine medizinische Diagnose verlange Intelligenz - angehende Ärzte müssen lange Jahre auf die Universität gehen und eine Unzahl von Prüfungen bestehen. Aber wir sprechen auch von "intelligenten" Maschinen, wenn sie die menschliche Sprache verstehen - selbst wenn Kinder bereits mit zwei Jahren zu sprechen anfangen - , weil wir nicht wissen, wie wir dem Computer deutsch beibringen sollen. Umgekehrt verliert ein Problem um so stärker an intellektuellem Reiz, je besser wir es verstehen. Dame ist längst kein Thema mehr für die KI-Forschung, weil Maschinen heute den besten Spielern der Welt überlegen sind. Schach hingegen gilt immer noch als geistige Herausforderung: Großmeister schlagen die besten Schachcomputer; und ihre Erbauer sind nicht sicher, wieweit sie die Leistung der Rechner noch steigern können. Minskys Kommentar wirft ein Schlaglicht auf ein Schlüsselproblem jeder KI-Anwendung: Etwas als intelligent zu beschreiben, bedeutet, daß wir es nicht vollständig begreifen, und die Automatisierung einer Aufgabe, die wir nicht verstehen, kann niemals zu befriedigenden Ergebnissen führen.

Fragen eines skeptischen Managers

Meine Bemerkungen mögen abstrakt, philosophisch und ziemlich realitätsfern klingen, doch sie haben ganz praktische Konsequenzen für Führungskräfte, die daran denken, in ihren Unternehmen Künstliche Intelligenz einzusetzen. Sie wollen wissen, ob Expertensysteme zuverlässig funktionieren. Halten sie die Spezifikationen ein? Sind die Antworten, die der Computer gibt, immer richtig oder zumindest vertretbar? Das Problem ist, daß kein Mensch diese Fragen befriedigend beantworten kann. Es gibt keine Theorie, die auch nur ansatzweise sagen könnte, welche Probleme mit einer gegebenen Menge von Informationen gelöst werden können. Es ist einfach nicht möglich zu prüfen, ob alle eingespeisten Fakten und Regeln korrekt sind oder ob Wissenslücken bestehen. Zudem kann der Fachjargon der Kl-Propagandisten Führungskräfte mit Angst und Schrecken erfüllen. Manager werden für ihre Entscheidungen von den Vorgesetzten zur Rechenschaft gezogen, und gravierende Fehler haben persönliche Konsequenzen zur Folge. Werden Führungskräfte die Zukunft ihres Unternehmens und ihr eigenes Schicksal in die Hände einer Maschine legen, die bloß "Vermutungen" ausspuckt? Wird ein Manager einem Expertensystem trauen, das mit so flockigen Worten beschrieben wird, daß ein skeptischer Laie denken muß, es sei unzuverlässig und unberechenbar? Nein. "Das Ding kommt nur über meine Leiche ins Haus", lautet da die unvermeidliche Reaktion. Denn für den Einsatz im Tagesgeschäft kommt es unbedingt auf Zuverlässigkeit und Berechenbarkeit an. Die heute verfügbaren Expertensysteme bieten meist weder das eine noch das andere. Und vor allem: Wird sich ein Manager, der seine Sinne noch beisammen hat, bei einer wichtigen Entscheidung ganz und gar auf den Computer verlassen ? Denken wir nur daran, welchen Aufschrei es geben würde, wenn der erste Patient aufgrund der Fehldiagnose eines medizinischen Expertensystems stürbe. Wer wird dafür verantwortlich gemacht werden? Und wie wird diese Entscheidung getroffen? Wir werden es wohl nie erleben, daß ein Verkehrsflugzeug vollautomatisch gesteuert wird, auch wenn Computer eines Tages nachweislich sicherer sein sollten als Piloten aus Fleisch und Blut. Der Grund: Ein Flugkapitän, der bei schlechtem Wetter die Landebahn verfehlt, begeht einen erklärbaren und das heißt letztlich verzeihlichen Fehler. Wenn jedoch der Computer versagt, dann wird es vermutlich einen plötzlichen Ausfall bei besten Flugbedingungen geben, und die Maschine rast bei hellem Sonnenschein in einen Berg. Diese Art von unmenschlichen Fehlern (in des Wortes doppelter Bedeutung) werden wir höchstwahrscheinlich nicht hinnehmen, was immer die Statistik über die Ausfallsicherheit von Computern sagen wird.

Vom Experten- zum Assistentensystem

Wenn Künstliche Intelligenz zu einem breiten kommerziellen Einsatz kommen soll, dann müssen die übertriebenen Erwartungen gedämpft werden, die in der Frühphase der KI-Forschung geweckt worden sind. Dafür gibt es drei Möglichkeiten: Erstens sollte das Kind bei einem anderen Namen genannt und jede Anspielung auf "Intelligenz" mit all ihren problematischen Konsequenzen vermieden werden. Eine Firma aus dem kalifornischen Technologieparadies Silicon Valley (ein Hersteller von CAD-Geräten) verzichtet denn auch grundsätzlich darauf, ihre Produkte mit dem Begriff "Künstliche Intelligenz" anzupreisen. Ein zweiter Weg: Konzentration auf Anwendungen, wo Fehler nur geringfügige Konsequenzen haben. Der amerikanische Computerhersteller Digital Equipment Corporation (DEC) benutzt das hauseigene Expertensystem XCON zum Zusammenstellen von kundenspezifischen Hardware-Konfigurationen: XCON gibt Auskunft, wenn ein Käufer wissen will, ob bestimmte Zusatzkomponenten in die VAX-Minicomputer von DEC eingebaut werden können. Fehler sind leicht durch den Austausch der Teile zu beheben. Der Haken an der Sache: Solche Routineaufgaben können genauso gut mit weit simpleren, weniger "intelligenten" Mitteln erledigt werden. Ein Hauptgrund für das Einführen von Expertensystemen ist ja aus betriebswirtschaftlicher Sicht die Unterstützung bei Entscheidungen mit weitreichenden finanziellen Konsequenzen. Drittens schließlich sollte ein Kl-Programm nicht als Ersatz für menschliche Experten positioniert werden, sondern als deren Hilfsmittel oder "Assistenten". Ein solches "Assistentensystem" würde nur zum Erleichtern, Unterstützen und Überwachen menschlicher Entscheidungsprozesse eingesetzt. Eine untergeordnete Rolle ist nicht nur wegen der heute noch nicht befriedigend funktionierenden Technik zu empfehlen, sie wäre auch den organisatorischen Strukturen unserer Unternehmen angemessener. Menschliche Assistenten haben ja auch eine sinnvolle Funktion: Sie verfügen über gewisse Spezialkenntnisse, und es stürzt nicht gleich der Himmel ein, wenn sie einmal einen Fehler machen; die Verantwortung trägt ja letztlich der Fachmann, dem sie zuarbeiten. Genauso sollte beim Einsatz von Expertensystemen verfahren werden. Die Abteilung "Geologische Analysen" von Schlumberger ist mit dieser Strategie ausgezeichnet gefahren. Ein weiteres gutes Beispiel ist das von der Medizinischen Fakultät der Universität Stanford entwickelte Oncocin-System, das bei der Chemotherapie für Krebskranke herangezogen wird. Oncocin ist weit davon entfernt, den Doktor zu ersetzen; das Expertensystem bleibt stets im Hintergrund. Auf den ersten Blick scheint Oncocin nichts weiter zu sein als ein elektronisches Krankenblatt. Der Arzt benutzt den Bildschirm, um Diagnose- und Therapiedaten zu erfassen, die zuvor auf Papier festgehalten wurden. Doch Oncocin ist darüber hinaus ein vollentwickeltes Expertensystem für Krebstherapien. Es überwacht die Krankengeschichte und zeigt alternative Diagnosen und Therapien auf, die der behandelnde Arzt vielleicht übersehen hat. Geht alles gut, mag sich der Onkologe dieser stillen Unterstützung gar nicht bewußt sein. Doch sollte der Arzt einen Kunstfehler begehen, meldet sich der Computer zu Wort und weist ihn auf Gegenindikationen hin oder fragt nach dem Grund für eine unkonventionelle therapeutische Maßnahme. Der Nutzen dieses Systems besteht darin, daß die Mediziner Informationen bekommen, die ihnen sonst entgangen wären, und dadurch gezwungen werden, angeordnete Therapien noch einmal zu überdenken. Der Arzt kann selbstverständlich den Rat der Maschine zurückweisen, er kann aber auch zusätzliche Informationen abfragen, ja selbst ausführliche Begründungen für den Therapievorschlag des Computers oder einschlägige Artikel aus der Fachliteratur abrufen. In jedem Fall ist jedoch klar, wer die Verantwortung trägt.

Prosaische Aufgaben

Es ist sehr schwierig, maßgeschneiderte Assistentensysteme zu entwickeln, die sich reibungslos in das Arbeitsumfeld eines Arztes, Wirtschaftsprüfers oder Managers einfügen. Selbst konventionelle Software kann nur schwer auf die Bedürfnisse technisch unbedarfter Anwender angepaßt werden. Ist es mithin schlicht unmöglich, Künstliche Intelligenz auf sinnvolle Weise kommerziell einzusetzen? Ich glaube nicht. Das Konzept des Assistentensystems - die "Computerintelligenz im Hintergrund" - scheint mir eine Lösung zu sein. Bei Expertensystemen wird eine völlig andere Programmiertechnik verwendet als bei konventionellen Computeranwendungen (die auf sogenannter arithmetischer Software beruhen). Die logischen Programmiersprachen, in denen Expertensysteme geschrieben sind, wurden in einem langen Entwicklungsprozeß auf die spezifischen Bedürfnisse von KI-Lösungen für sehr schlecht verstandene Probleme angepaßt. Daraus resultiert ein Arbeitsstil, der als exploratives Programmieren bekannt ist: Das Design der Anwendungssoftware (das Festlegen der Spezifikationen) und das Programmieren gehen Hand in Hand; bei konventioneller Software steht üblicherweise vor dem Programmieren bereits fest, welche Aufgaben ein Computerprogramm erfüllen soll. Die Mängel dieser Vorgehensweise liegen auf der Hand: ein endloser, sehr aufwendiger Trial-and- Error-Prozeß. Doch in einer Situation hoher Komplexität und Ungewißheit ist es einfach nicht möglich, alle Arbeitsschritte im voraus zu durchdenken und zu planen. Unter solchen Bedingungen ist es das beste, zunächst einmal Teillösungen auszuprobieren, um dann zu sehen, ob sich damit Komplexität und Ungewißheit abbauen lassen, so daß weitere Fortschritte möglich sind. Für die explorative Softwareentwicklung werden Programmiersprachen benötigt, die es erlauben, das Ausfeilen von Designdetails so lange wie möglich hinauszuschieben, ferner Softwarewerkzeuge, mit denen einzelne Module der Anwendungssoftware automatisch kodiert werden können, und schließlich drittens Programmiertechniken, die inkrementale Erweiterungen zulassen. Diese drei Hilfsmittel ermöglichen es dem Softwaredesigner, komplexe modulare Expertensysteme zu entwickeln, die problemlos modifiziert werden können, um geänderten Anwenderbedürfnissen entgegenzukommen. Es ist leicht zu sehen, warum exploratives Programmieren für Expertensysteme ideal geeignet ist. Aus Minskys Definition von Intelligenz geht hervor, daß ein Programmierer, der im voraus detaillierte Spezifikationen festlegen kann, sich nicht mit einer KI-Anwendung beschäftigt. Bei der Entwicklung von kommerziellen Expertensystemen machte man die überraschende Entdeckung, daß es auch bei konventionellen Computerprogrammen zuweilen nahezu unmöglich ist, präzise Spezifikationen zu formulieren. Das gilt insbesondere für interaktive Anwendungen, bei denen der Mensch-Maschine-Dialog große Bedeutung hat. Auch hier erwies sich exploratives Programmieren als höchst nützlich. John Seely Brown vom Palo Alto Research Center, einer Forschungseinrichtung der Xerox Corporation, hat als erster auf die Rolle hingewiesen, die die Softwarewerkzeuge und Programmiertechniken, die für Expertensysteme geschaffen wurden, für konventionelle Computeranwendungen haben könnten. Er beobachtete, daß ein guter Teil der kommerziell ausgerichteten KI-Forschung darin besteht, Kl-Werkzeuge zum rascheren Entwickeln von Prototypen konventioneller Anwendungssoftware zu benutzen. In der Tat hat sich herausgestellt, daß die Entwicklung von hochgradig kundenspezifischer, integrierter Anwendungssoftware eine der größten Stärken der KI-Technik ist. Browns Ansicht wird durch einen neuen Trend bestätigt: das Einbinden von Kl-Werkzeugen, insbesondere von sogenannten Regel-Interpretierern (siehe Kasten) in konventionelle Softwaresysteme. Der kurzfristige Nutzen ist klar: Regelbasiertes Programmieren ist eine höchst wirksame Methode, um eine klare, konzise, jedoch jederzeit erweiterbare Software für Unterscheidungs- und Klassifizierungsaufgaben zu schreiben. Viele EDV-Fachleute halten regelbasiertes Programmieren für eine große Verbesserung gegenüber den verwickelten Codes, die üblicherweise für diese Aufgaben verwendet werden. So erleben wir heute den triumphalen Einzug von Regel-Interpretierprogrammen in die EDV-Abteilungen; manche Branchenbeobachter glauben gar, dies sei der "wahre" kommerzielle Nutzen der KI-Technik. Womöglich werden Expertensysteme in Zukunft für die prosaische Entscheidung eingesetzt, welche Formblätter einem Kunden geschickt werden müssen oder welche steuerrechtlichen Bestimmungen zu beachten sind. Der Skeptiker mag fragen, wieviel "Intelligenz" in diesen Anwendungen steckt: Nehmen sich regelbasierte Computeranwendungen nicht recht kümmerlich aus im Vergleich zu der ehrgeizigen KI-Forschung, aus denen sie hervorgegangen sind? Doch das führt zu nichts. Der schlichte Regel-Interpretierer ist eine wirksame Software für eine breite Klasse einfacher, praktischer Probleme. Daneben gibt es natürlich auch Raum für anspruchsvollere KI-Anwendungen. Solange wir uns in Realismus üben und nicht mit einem Luftgewehr ein Nashorn erlegen wollen, sollte der Skeptiker Ruhe geben.. Copyright: © 1987 by the President and Fellows of Harvard College; ursprünglich veröffentlicht in "Harvard Business Review" Nr. 4, Juli/ August 1987, unter dem Titel "Thinking about artificial intelligence"; Übersetzung: Günter Heismann.

Beau Sheil
Zur Ausgabe
Artikel 14 / 17
Die Wiedergabe wurde unterbrochen.
Merkliste
Speichern Sie Ihre Lieblingsartikel in der persönlichen Merkliste, um sie später zu lesen und einfach wiederzufinden.
Jetzt anmelden
Sie haben noch kein SPIEGEL-Konto? Jetzt registrieren