Neue Version des Chatbots OpenAI macht ChatGPT noch schlauer

Wettlauf gegen Google: Open AI-Chef Sam Altman hat mit Microsoft einen wichtigen Partner gefunden
Foto: LUCY NICHOLSON / REUTERSDas Start-up OpenAI hat die nächste Version der Technologie hinter dem populären Textautomaten ChatGPT vorgestellt. GPT-4 soll unter anderem bessere Ergebnisse als die vorherigen Varianten liefern, wie OpenAI in der Nacht zum Mittwoch bekannt gab. Probleme der Technik – wie etwa, dass sie angebliche Fakten einfach erfinden kann – bestehen weiter, sollen aber seltener vorkommen. GPT-4 sei ein "Meilenstein" und die Technologie zeige "bei einigen professionellen und akademischen Aufgaben Leistungen auf menschlichem Niveau", schrieb das kalifornische Unternehmen unter Leitung von Sam Altman (37) am Dienstag zur Vorstellung der neuen Version in einem Blog-Beitrag.
ChatGPT und die Software Dall-E, die Bilder aus Textvorgaben erzeugen kann, basieren auf der vorherigen GPT-Generation. Zugang zu GPT-4 bekommen zahlende Kunden von OpenAI für ihre Dienste. Es gibt eine Warteliste.
Einige Kunden setzten die Technologie bereits ein. Die Sprachlern-App Duolingo etwa nutzt GPT-4 unter anderem für Dialogtrainings, die in einem neuen, teureren Abo verfügbar sind. Microsoft bestätigte, dass in seiner Bing-Suchmaschine schon seit einigen Wochen GPT-4 zum Einsatz kommt. Microsoft kaufte sich in einem milliardenschweren Deal bei OpenAI ein und das Geld sicherte unter anderem den Zugang zur nötigen enormen Rechenleistung. Die Microsoft-Aktie legte am Dienstagmorgen vorbörslich leicht zu.
Wer in den vergangenen Wochen das neue Bing testete, kam zum Teil zu ernüchternden und kuriosen Ergebnissen: Der KI-Chatbot blockte selbst in Deutschland Suchanfragen zu Vorwürfen gegen den chinesischen Staatspräsidenten Xi Jinping (69) teilweise ebenso ab wie Fragen zum Vorgehen der chinesischen Regierung gegen die Uiguren. Dabei lieferte die Software mitunter zunächst Antworten, die sie dann schnell wieder löscht, als habe sich der Bot verplappert.
ChatGPT "halluziniert" Fakten
Für die GPT-Technologien erfasste die Software enorme Mengen von Texten und Bildern. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als Nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software "Fakten halluziniert", wie OpenAI es nennt.
Das könne auch GPT-4 passieren, wenn auch seltener als zuvor, hieß es in dem Blogeintrag. Auch könnten der neuen Version ebenfalls einfache Logikfehler unterlaufen und sie könne Vorurteile weiterverbreiten. GPT-4 seien nur Fakten bekannt, die vor September 2021 passiert seien – und es lerne nicht aus Erfahrungen, betonte OpenAI. GPT-4 soll auch gut darin sein, Bilder zu analysieren und mit Worten zu beschreiben – diese Funktion macht OpenAI zunächst aber nicht für die Kunden verfügbar.