Sorge um die Demokratie Schattenseiten von ChatGPT alarmieren Datenexperten

Die künstliche Intelligenz des US-Start-ups OpenAI feiert beachtliche Erfolge. Nun warnen Harvard-Forscher: Was, wenn eine derart kluge Software in politische Prozesse eingreift?
Unheimlicher Erfolg: ChatGPT von OpenAI erobert das Internet

Unheimlicher Erfolg: ChatGPT von OpenAI erobert das Internet

Foto: Jonathan Raa / NurPhoto / IMAGO

Unter dem Titel "Wie ChatGPT die Demokratie kapert" warnen Experten in der "New York Times"  vor den Folgen, die ein Einsatz des zuletzt gehypten Chat-Bots haben kann. ChatGPT zeige, wie weit künstliche Intelligenz  (KI) bereits sei bei dem Versuch, menschliches Denken und Verhalten zu imitieren, argumentieren Nathan E. Sanders und Bruce Schneier, zwei ausgewiesene Fachleute für Informationstechnologie und Datensicherheit von der Harvard University und der Harvard Kennedy School. Daraus entstünden auch gesellschaftliche Gefahren – und das größte Risiko werde bislang übersehen: KI der neuesten Art eröffne völlig neue Möglichkeiten zur Manipulation in der politischen Lobbyarbeit und Propaganda. Gruppen mit ausreichenden Mitteln könnten auf diese Weise ganze demokratische Prozesse auf perfide Weise unterwandern, warnen sie, noch effizienter als es bezahlte Troll-Fabriken könnten.

Der Hintergrund: Seit Wochen erregt der Chatbot ChatGPT des US-Start-ups OpenAI Aufmerksamkeit. Das Programm, so scheint es, hebt die Fähigkeiten künstlicher Intelligenz in der Kommunikation mit Menschen auf eine neue Ebene. Es beantwortet beispielsweise eingetippte Fragen in natürlich klingender Sprache oder entwirft eigene Texte auf Grundlage einiger Stichpunkte. Die Software simuliere dabei eine Konversation, die "dem menschlichen Verhalten unheimlich nahekommt", so Sanders und Schneier.

Aktuell steht ChatGPT kostenlos zum Testen zur Verfügung. Und das mit großem Erfolg: Im Dezember vergangenen Jahres haben sich innerhalb von nur fünf Tagen mehr als eine Million Nutzer auf der Plattform angemeldet. Bei Google herrscht dem Vernehmen nach bereits Aufregung, weil das neue Programm zu einem ernsthaften Konkurrenten für die weltweit meistgenutzte Internetsuchmaschine werden könnte.

In der jüngsten Finanzierungsrunde wurde die Entwicklerfirma OpenAI, die noch andere KI-Programme etwa in der Bilderkennung programmiert hat, mit rund 29 Milliarden Dollar bewertet. Der Software-Konzern Microsoft, schon seit Jahren einer der Geldgeber, will knapp die Hälfte an OpenAI übernehmen. Microsoft integriert die KI, die ChatGPT antreibt, bereits in seine hauseigene Suchmaschine Bing. Und angeblich will der Konzern zudem auch seine Office-Anwendungen damit ausstatten. So könnte die Software Teil von Word, Powerpoint und Outlook werden und automatisch Texte und E-Mails erzeugen.

Die Schattenseiten hoch entwickelter KI

Die beiden Autoren Sanders und Schneier weisen vor diesem Hintergrund auf die möglichen Schattenseiten derart hoch entwickelter KIs hin, an deren Entwicklung auch Google und andere IT-Adressen bereits mit Hochdruck sitzen. Bots wie ChatGPT könnten in die politische Kommunikation in viel ausgefeilterer und damit manipulativerer Weise eingreifen als bisherige Programme, schreiben sie. Zwar sei das Phänomen, dass Inhalte in sozialen Medien oder Foren automatisch von Computerprogrammen erstellt und gepostet werden, schon seit einigen Jahren bekannt. Konzerne wie Facebook verwenden viel Energie und Arbeit darauf, solche Chatbots und deren Inhalte zu identifizieren und von ihren Seiten fernzuhalten; auch auf Twitter ist das Phänomen weit verbreitet . ChatGPT aber offenbart eine neue Qualität.

Mit der Weiterentwicklung der KIs dürfte deren Enttarnung immer schwieriger werden. Denn Programme wie ChatGPT können nicht nur allgemeine Wurfsendungen verfassen, sondern sehr individuelle Mails oder Posts schreiben, etwa persönlich an wichtige Entscheidungsträger in der Politik. "Anstatt die Posteingänge der Abgeordneten mit unterstützenden E-Mails zu überschwemmen oder die Telefonzentrale im Kapitol mit synthetischen Anrufen zu dominieren, könnte ein KI-System mit der Raffinesse von ChatGPT, das auf relevante Daten trainiert ist, gezielt wichtige Abgeordnete und Einflussnehmer ansprechen, um die schwächsten Punkte im politischen System zu identifizieren und sie durch direkte Kommunikation, PR-Kampagnen, Kuhhandel oder andere Hebelpunkte rücksichtslos auszunutzen", schreiben Sanders und Schneier.

Die Programme seien deutlich zielgenauer als bisherige Ansätze. Sie könnten etwa gezielt entscheidende Personen erkennen. "Diese Fähigkeit, die Akteure innerhalb eines Netzwerks zu verstehen und ins Visier zu nehmen, würde ein Instrument schaffen, mit dem Schwachstellen in sozialen, wirtschaftlichen und politischen Systemen mit unglaublicher Geschwindigkeit und Reichweite ausgenutzt werden könnten", so Sanders und Schneier.

Die Mächtigen werden noch mächtiger

Die Daten, die die Software dafür benötigt, dürften künftig immer leichter zu bekommen sein, so die Autoren. Denn "offene Gesellschaften machen ihre demokratischen Prozesse im Allgemeinen zu einer öffentlichen Angelegenheit", und die meisten Politikerinnen und Politiker seien begierig, "Nachrichten zu akzeptieren und zu beantworten, die von ihren Wählern zu stammen scheinen".

Insgesamt also ein beunruhigendes Szenario, das die Fachleute da entwerfen. "Stellen Sie sich eine KI-gestützte Lobbying-Firma vor, die versucht, einzelne Gesetze zu platzieren oder ganze Gesetzgebungen zu beeinflussen."

Insbesondere in den USA dürften solche Warnungen ernst genommen werden, schließlich ist die US-Wahl 2016 noch in unguter Erinnerung. Seinerzeit stellte sich im Nachhinein heraus, dass der spätere US-Präsident Donald Trump (76) mithilfe der britischen Beratungsfirma Cambridge Analytica und ohne das Wissen der betroffenen Internetnutzer in sozialen Medien gezielt für seine Inhalte geworben hatte. Ähnliches geschah in Großbritannien ebenfalls 2016 im Kontext der Kampagne zum Austritt aus der Europäischen Union. In beiden Fällen kam moderne Software im großen Stil zum Einsatz.

Ganz gleich wie gut die KI auch sein mag, eins wird bei der Lobbyarbeit nach Ansicht der Autoren in der "NYT" allerdings auch künftig unverzichtbar sein: Wer die Politik beeinflussen will, benötigt viel Geld. "Es lässt sich zwar nicht vorhersagen, wie eine Zukunft voller KI-Lobbyisten aussehen wird", lautet daher das Fazit von Sanders und Schneier. "Aber sie wird die ohnehin schon einflussreichen und mächtigen Menschen wahrscheinlich noch mächtiger machen."

cr
Die Wiedergabe wurde unterbrochen.