Als OpenAI Ende vergangenen Jahres erstmals ChatGPT vorstellte, war das ein Durchbruch der KI – zumindest in der öffentlichen Aufmerksamkeit. Erstmals konnte ein Chat-Programm nicht nur glaubwürdige Gespräche führen, sondern auch ganze Texte schreiben, selbstständig Programmcode generieren und sogar Gedichte verfassen. Die nun vorgestellte Nachfolgeversion kann noch deutlich mehr. Und trotzdem warnt OpenAI-Chef Sam Altman: Zu viel sollte man sich nicht davon erhoffen.
Dabei klingen die neuen Funktionen wirklich beeindruckend. Das neue Programm ist nach Angaben von OpenAI nun in der Lage, noch komplexere Themen zu ver- und bearbeiten. Akzeptierte die bisherige Version nur Texteingaben, kann die neue auch Bilder erkennen. Und: Im Gegensatz zum Vorgänger soll GPT-4 seltener "halluzinieren", also seltener Dinge als Fakten darstellen, die es sich schlicht ausgedacht hat. Die bisherige Version 3.5 hatte das noch regelmäßig mit sehr großem Selbstbewusstsein getan.
Das kann GPT-4
Alle drei Fähigkeiten sind jeweils ein wichtiger Schritt. Der Nutzen der gestiegenen Problemlösungsfähigkeit ist quasi selbsterklärend. GPT-4 kann nun vor noch komplexere Aufgaben gestellt werden – und diese trotzdem bewältigen. Das zeigt sich vor allem in der beeindruckenden Liste von eigentlich an menschliche Teilnehmer gerichtete Sprach- und Wissenstests, die das Programm mittlerweile besteht. So kann die neue Version sogar das sogenannte "Bar Exam", also die Zulassungsprüfung für Anwälte in den USA, meistern. Und könnte dort praktizieren.
Fast noch wichtiger ist allerdings die neue Fähigkeit, mehr als nur Textinhalte zu erkennen. Auch Bilder kann ChatGPT nun verarbeiten. Das Ergebnis ist schlicht beeindruckend. ChatGPT kann nicht nur das Gezeigte erkennen, sondern es auch in Kontext setzen. So erkennt es etwa die Ironie in Meme-Bildern. Oder programmiert aus dem Stand eine Webseite, die aussieht wie die vom Programmierer hochgeladene, sehr grobe Bleistiftskizze.

Auch die Reduktion der Fantasie-Antworten ist ein essenzieller Fortschritt. Fragte man die bisherige Version nach faktischen Aussagen, bekam man zwar stets glaubwürdig klingende, wohl formulierte und sehr selbstbewusst präsentierte Aussagen, auf deren Wahrheitsgehalt allerdings kein Verlass war. Immer wieder dachte sich das Programm Fakten schlicht aus. Das machte die Funktion quasi nutzlos: Glauben konnte man nur Aussagen, die man selbst hätte geben können. Bei der neuen Version sollen solche Ausfälle nun 40 Prozent seltener vorkommen. Ob GPT-4 dadurch tatsächlich zuverlässiger ist, muss sich allerdings erst beweisen.
Mit der Ankündigung ist GPT-4 auch gleich für Nutzer freigegeben. Das Unternehmen bietet es als Teil seines Abonnements an, auch die für ausgewählte Nutzer zur Verfügung stehende KI-Suche in Microsofts Bing unterstützt das Modell.
Keine KI-Revolution
Wer nun auf eine Revolution hofft, dürfte aber enttäuscht werden. Die Verbesserungen der neuen Version sind – mit Ausnahme der Bilderkennung – eher unter der Haube zu finden. Bei der Nutzung sind sie kaum zu bemerken. Zwar kann das Programm deutlich mehr als sein Vorgänger, die Verbesserungen stecken allerdings eher im Detail, als das sie eine Revolution darstellen.
Entsprechend OpenAI legt viel Wert darauf, dass die neue Version nicht überschätzt wird. So bewirbt sie das Programm zwar als "kreativer und kollaborativer als je zuvor", Chef Sam Altman betonte allerdings bei Twitter, dass es "immer noch fehleranfällig und begrenzt" sei. "Es wirkt beim ersten Ausprobieren immer noch deutlich beeindruckender, als wenn man es länger nutzt", versucht er die Erwartungen zu dämpfen.
"Die Leute betteln quasi darum, enttäuscht zu werden"
Auch GPT-4 ist immer noch "nur" ein sehr beeindruckendes Sprachmodell – und keine vollwertige Allgemein-KI. Wie sein Vorgänger rät es vereinfacht gesagt in einem hochkomplexen Auswahlprozess, welches Wort als nächstes kommen soll. Echtes Verständnis der verarbeiteten Daten oder gar echte Intelligenz steckt nicht dahinter.
Eine solche allgemeine künstliche Intelligenz – in der Branche Artificial General Intelligence (AGI) genannt – ist noch in weiter Ferne. Auch Altman warnt davor, sein Programm mit einer solchen zu verwechseln. "Die Leute betteln quasi darum, enttäuscht zu werden", klagte Altman bereits Anfang des Jahres in einem Interview. "Wir haben keine AGI, aber irgendwie wird das von uns erwartet."
Den wichtigsten Grund für etwas Skepsis bietet Microsoft. Der Konzern enthüllte im Rahmen der Vorstellung, dass hinter seinem Bing-Chatbot bereits seit Wochen die neue Version GPT-4 arbeitet. Schlagzeilen hatte Microsofts Bot aber auch deshalb gemacht, weil er die Nutzer mit teils merkwürdig emotionalen Ausbrüchen verstörte (hier erfahren Sie mehr). Letztlich zog der Konzern die Bremse. Und legte seinen Chatbot an eine deutlich kürzere Leine. Trotz der neuen Technologie.
Quellen: OpenAI-Präsentation, Sam Altman, Strictly VC