„Nachdenkende“ Version o1 von ChatGPT: Wie die KI über schweren Aufgaben brütet

Die kalifornische KI-Schmiede OpenAI hat ChatGPT antrainiert, Nutzerfragen analytischer anzugehen. Das macht sie besser in Mathe und Programmierung. Aber o1 macht immer noch einiges falsch. Über eine große Fehlstelle in der KI-Entwicklung.

5 Minuten
Roboter löst Zauberwürfel, Symbolbild für eine „nachdenkende“ KI

Dass langes „Nachdenken“ eines Computers nicht immer zu brauchbaren Ergebnissen führt, zeigt Douglas Adams’ Science-Fiction-Parodie „Per Anhalter durch die Galaxis“. Millionen Jahre rechnet der Computer „Deep Thought“, bevor er die Antwort auf die Frage nach allem liefert: 42.

Unbeeindruckt davon wirbt die kalifornische KI-Schmiede OpenAI, dass die neueste ChatGPT-Version mehr Zeit mit „Denken“ verbringe. Die KI namens „o1“ könne „komplexe Gedankengänge“ ausführen, heißt es auf der Website. Tatsächlich schnitt sie bei durchaus anspruchsvollen Mathe-, Wissenschafts- und Programmiertests deutlich besser ab als GPT-4o, eines der besten KI-Modelle. Das klingt nach einem entscheidenden Durchbruch. Was steckt dahinter?

Nach dem ersten Hype ist es um ChatGPT und andere generative KI-Modelle ruhiger geworden. Zunächst sorgten sie mit flüssigen, intelligent wirkenden Texten für Staunen, doch von Anfang an zeigten sie Schwächen wie sogenannte Halluzinationen: plausibel klingende Aussagen, die die KI aber im Bemühen irgendetwas zu antworten, frei erfindet.

Die großen KI-Schmieden auf der Suche nach neuen Fortschrittsquellen

Bis heute konnten Hersteller diese und andere Schwächen nicht vollständig beheben. Die Hoffnung, dass mehr Rechenkraft und Trainingsdaten die KI-Modelle intelligenter machen, hat sich nicht erfüllt. „Skalieren“ führe kaum noch zu besseren Leistungen, sagte Ex-OpenAI-Mitgründer Ilya Sutskever kürzlich zu Reuters. Der KI-Forscher Kristian Kersting von der TU Darmstadt bestätigt: „Die Fortschritte flachen sich ab.“