Emotionale KI "Das ist Pseudowissenschaft"

Analysiert die Emotionen seines Gegenübers: Der Roboter Luna Pepper
Foto: DPADieser Artikel gehört zum Angebot von manager-magazin+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.
Pepper spricht, singt und tanzt, sein Publikum auf der Couch – drei ältere Frauen plus Pflegepersonal – wippen begeistert mit. So ist es in einer Aufnahme des NDR zu sehen. Pepper ist allerdings kein Mensch, sondern ein Roboter, der die Emotionen seines Gegenübers erforscht. Herzschlag, Blutdruck, Gesichtsausdruck, Sprachmuster, Augenbewegungen: Das ist nur eine Auswahl an biometrischen Daten, die eine sogenannte emotionale KI wie Pepper analysieren kann, um in Echtzeit Rückschlüsse auf die emotionale Lage des Gegenübers zu ziehen.
Expertinnen wie Kenza Ait Si Abbou (42) warnen davor, die süß aussehenden Roboter für ein Gimmick zu halten. Es geht schließlich darum, mit ihnen die Emotion und das Verhalten der Menschen nicht nur zu analysieren, sondern auch zu beeinflussen. Die IBM-Managerin schreibt Bücher, hält Vorträge und spricht in diversen Talkshows über das Thema. Vor ihrem Job als Leitende Managerin im Bereich Künstliche Intelligenz (KI), war sie bei der Deutschen Telekom für das Thema zuständig. Sie spricht angesichts der Entwicklungen in der emotionalen KI von einem Epochenwechsel, wenn es um das Verhältnis zwischen Menschen und Maschinen geht: "Jetzt haben wir ein Objekt, das sich wie ein Subjekt verhält."
Zu den Sektoren, in denen emotionale KI bereits angewendet wird, gehören unter anderem so unterschiedliche Branchen wie die Medizin, das Marketing oder die Automobilindustrie. So kommt sie etwa in der Autismus-Therapie zum Einsatz. Und im Auto soll die KI beispielsweise dafür sorgen, dass autonomes Fahren in Zukunft sicherer wird, wenn zusätzlich die Emotionen der Fahrerin oder des Fahrers ausgewertet werden. In Zukunft sieht Ait Si Abbou zwei klare Richtungen: "Die eine ist im Customer Care Bereich, die andere im Medizinbereich." Das Marktpotenzial soll laut der Marktforschungsagentur Markets and Markets bis 2027 auf rund 42,9 Milliarden US-Dollar wachsen.
Große Tech-Unternehmen mischen im Markt mit
Zu den führenden Anbietern von emotionaler KI gehören große Tech-Unternehmen wie Google, Microsoft, NEC oder IBM. So schloss Microsoft 2022 die Übernahme von Nuance ab. Das KI-Unternehmen ist unter anderem im Gesundheitsbereich aktiv und entwickelte auch einen interaktiven Fahrassistenten, der die Emotionen von Autofahrern analysiert und auf diese eingehen soll. Apple akquirierte 2016 das kalifornische Unternehmen Emotient, das darauf spezialisiert ist, Emotionen am Gesichtsausdruck zu erkennen.
Zum Markt gehören aber auch Start-ups wie die amerikanische Recruiting-Plattform HireVue, die indische Marktforschungsplattform Entropik Technology, das britische Unternehmen Realeyes, das die Reaktionen von Kundinnen und Kunden für Unternehmen misst, oder Affectiva. Das amerikanische Start-up gehört seit 2021 zum schwedischen Techunternehmen Smart Eye. Hauptkunden sind Autokonzerne und Werbeagenturen.
In Deutschland sorgte unter anderem das Start-up Retorio für Aufsehen, als es im Februar 2021 eine siebenstellige Kapitalspritze erhielt. Das Unternehmen hat eine KI entwickelt, die im Personalwesen Videos von Bewerberinnen und Bewerbern anhand von deren Mimik, Körpersprache und Sprechverhalten analysiert und auswertet. Zu den Investoren gehören laut Unternehmen Venture Capital Funds wie Conviction VC, Basinghall Partners und Sofia Angels Ventures.
Die Risiken emotionaler KI
Doch die Risiken, die mit emotionaler KI einhergehen, sind hoch. Die Technologie bietet auch Raum für Missbrauch und Manipulation – und kann diskriminieren. So beschreiben die Wissenschaftler Peter Mantello und Ho Manh-Tung in einem Beitrag für das wissenschaftliche Journal "AI & Society", dass die Algorithmen selten kulturelle oder geschlechtsspezifische Faktoren berücksichtigen, was wiederum zu Bias-Problemen führen kann. Die KI stellt die Realität also verzerrt dar – und benachteiligt dadurch bestimmte Menschen oder Gruppen.
Eine Studie an der Business-School der Universität Maryland in den USA untersuchte beispielsweise, wie KI die Gesichtsausdrücke von schwarzen und weißen Footballspielern bewertete. Von einer Software wurden schwarze Spieler im Vergleich zu weißen Spielern konsequent als wütender wahrgenommen, von der anderen Software als verachtungsvoller. Je nach Einsatzbereich der KI in der Praxis können solche Bewertungen ernsthafte Folgen haben – von einer Jobabsage bis zu einer Inhaftierung.
Kritische Anwendungsgebiete finden sich beispielsweise im Bereich der Sicherheitspolitik. So testete die chinesische Regierung laut der "BBC" den Einsatz an der uigurischen Minderheit, die in China brutal unterdrückt wird: Emotionale KI soll in Lügendetektoren auf Polizeiwachen zum Einsatz gekommen sein. Die EU testete mit dem Projekt "iBorderCtrl" an vier Grenzübergängen in Griechenland, Lettland und Ungarn Lügendetektoren, die Einreisende überprüfen sollte.
Daneben sehen die Forschenden auch ein Datenschutzproblem. Die emotionale KI verarbeitet biometrisch sensible Daten, die wiederum als Grundlage für Rückschlüsse auf Geschlecht und Alter dienen könnten.
Umstrittene wissenschaftliche Grundlage
Hinzu kommt: Emotionale KI ist alles andere als die exakte Wissenschaft, als die sie meist dargestellt wird, objektiv, unbestechlich. "Das ist Pseudowissenschaft", sagt etwa Sandra Wachter, Professorin für Technologie und Regulation an der Oxford-Universität und promovierte Juristin. "Es ist wissenschaftlich nicht möglich zu sagen, was emotional in einem anderen Menschen vorgeht. Man kann bestimmte Parameter messen, aber das sagt alles in Wirklichkeit nichts aus."
Auch die beiden Wissenschaftler Mantello und Manh-Tung weisen darauf hin, dass sich die in dem Bereich führenden Unternehmen auf eine Theorie des Psychologen Paul Ekman stützen, die von einer Universalität der Emotionen ausgeht. Vereinfacht gesagt, geht dieser Ansatz davon aus, dass beispielsweise die Emotion "Überraschung" bei allen Menschen ähnliche Gesichtsausdrücke hervorruft – und damit messbar ist. Laut den beiden Forschern ist diese Theorie aber längst widerlegt.
Aus neurowissenschaftlicher Perspektive ist es allerdings durchaus vorstellbar, dass es Maschinen gelingt, Emotionen anhand von Bewegungen, Verhalten und Sprache zu erkennen, sagt der Neurowissenschaftler und Autor Henning Beck: "Das kann durchaus akkurater sein als die Einschätzung von Menschen."
Angesichts der Schnelligkeit mit der manche KI-Produkte auf den Markt kommen, spricht sich KI-Expertin Ait Si Abbou für eine Regulierung von Produkten mit emotionaler KI aus. "Im Rennen um die besten Innovationen entwickeln manche Unternehmen KI-Produkte und Lösungen zu schnell. Teilweise sind so Produkte gelauncht worden, die nicht richtig bedacht worden sind." Damit spielt sie auch auf die diskriminierenden Aspekte von KI an. "In Deutschland sind wir zwar weniger agil. Aber was dieses Thema angeht, ist das von Vorteil, weil man sich hier erst mal so viele Gedanken macht und der Qualitätsanspruch so hoch ist."