Neue Version des Chatbots OpenAI macht ChatGPT noch schlauer

Die neue Version des KI-Chatbots ChatGPT liefere bessere Ergebnisse und zeige "Leistungen auf menschlichem Niveau", verspricht Open-AI-Chef Sam Altman. Gleichzeitig warnt er, dass die Software weiterhin Fakten erfinden dürfte.
Wettlauf gegen Google: Open AI-Chef Sam Altman hat mit Microsoft einen wichtigen Partner gefunden

Wettlauf gegen Google: Open AI-Chef Sam Altman hat mit Microsoft einen wichtigen Partner gefunden

Foto: LUCY NICHOLSON / REUTERS

Das Start-up OpenAI hat die nächste Version der Technologie hinter dem populären Textautomaten ChatGPT vorgestellt. GPT-4 soll unter anderem bessere Ergebnisse als die vorherigen Varianten liefern, wie OpenAI in der Nacht zum Mittwoch bekannt gab. Probleme der Technik – wie etwa, dass sie angebliche Fakten einfach erfinden kann – bestehen weiter, sollen aber seltener vorkommen. GPT-4 sei ein "Meilenstein" und die Technologie zeige "bei einigen professionellen und akademischen Aufgaben Leistungen auf menschlichem Niveau", schrieb das kalifornische Unternehmen unter Leitung von Sam Altman (37) am Dienstag zur Vorstellung der neuen Version in einem Blog-Beitrag.

ChatGPT und die Software Dall-E, die Bilder aus Textvorgaben erzeugen kann, basieren auf der vorherigen GPT-Generation. Zugang zu GPT-4 bekommen zahlende Kunden von OpenAI für ihre Dienste. Es gibt eine Warteliste.

Einige Kunden setzten die Technologie bereits ein. Die Sprachlern-App Duolingo etwa nutzt GPT-4 unter anderem für Dialogtrainings, die in einem neuen, teureren Abo verfügbar sind. Microsoft bestätigte, dass in seiner Bing-Suchmaschine schon seit einigen Wochen GPT-4 zum Einsatz kommt. Microsoft kaufte sich in einem milliardenschweren Deal bei OpenAI ein und das Geld sicherte unter anderem den Zugang zur nötigen enormen Rechenleistung. Die Microsoft-Aktie  legte am Dienstagmorgen vorbörslich leicht zu.

Wer in den vergangenen Wochen das neue Bing testete, kam zum Teil zu ernüchternden und kuriosen Ergebnissen: Der KI-Chatbot blockte selbst in Deutschland Suchanfragen zu Vorwürfen gegen den chinesischen Staatspräsidenten  Xi Jinping (69) teilweise ebenso ab wie Fragen zum Vorgehen der chinesischen Regierung gegen die Uiguren. Dabei lieferte die Software mitunter zunächst Antworten, die sie dann schnell wieder löscht, als habe sich der Bot verplappert.

ChatGPT "halluziniert" Fakten

Für die GPT-Technologien erfasste die Software enorme Mengen von Texten und Bildern. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als Nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software "Fakten halluziniert", wie OpenAI es nennt.

Das könne auch GPT-4 passieren, wenn auch seltener als zuvor, hieß es in dem Blogeintrag. Auch könnten der neuen Version ebenfalls einfache Logikfehler unterlaufen und sie könne Vorurteile weiterverbreiten. GPT-4 seien nur Fakten bekannt, die vor September 2021 passiert seien – und es lerne nicht aus Erfahrungen, betonte OpenAI. GPT-4 soll auch gut darin sein, Bilder zu analysieren und mit Worten zu beschreiben – diese Funktion macht OpenAI zunächst aber nicht für die Kunden verfügbar.

dri/dpa-afxp, AFP
Die Wiedergabe wurde unterbrochen.
Playlist
Speichern Sie Audioinhalte in Ihrer Playlist, um sie später zu hören oder offline abzuspielen. Zusätzlich können Sie Ihre Playlist über alle Geräte mit der SPIEGEL-App synchronisieren, auf denen Sie mit Ihrem Konto angemeldet sind.
Jetzt anmelden
Sie haben noch kein SPIEGEL-Konto? Jetzt registrieren
Merkliste
Speichern Sie Ihre Lieblingsartikel in der persönlichen Merkliste, um sie später zu lesen und einfach wiederzufinden.
Jetzt anmelden
Sie haben noch kein SPIEGEL-Konto? Jetzt registrieren