OpenAI hat mit O3 und O4-mini zwei neue Modelle vorgestellt, die nicht nur Bilder verstehen, sondern damit auch aktiv denken und schlussfolgern können. Was wie ein technisches Upgrade klingt, könnte die Art, wie wir mit KI umgehen, komplett umkrempeln.
Schluss mit der Trennung: Verstehen und Denken vereint
Bisher gab es in der KI-Welt zwei Lager: Die einen Modelle, etwa GPT, waren Allrounder für Sprache und allgemeine Aufgaben. Die anderen, sogenannte Reasoner, glänzten vor allem beim logischen Denken, bei Mathe oder komplexer Planung – konnten aber keine Bilder analysieren oder durchs Web surfen. Jetzt hat OpenAI diese Trennung aufgehoben.
Mit O3 und O4-mini kommen zwei Modelle, die all das gleichzeitig können – und zwar in einer Form, wie es bisher nicht möglich war. Der Clou: Diese KI-Systeme „denken“ mit Bildern. Sie analysieren nicht nur, was zu sehen ist, sondern entscheiden eigenständig, wie sie ein Bild verarbeiten wollen. O3 kann zum Beispiel gezielt zoomen, rotieren oder irrelevante Details ausblenden, um zur passenden Schlussfolgerung zu kommen.
Diese visuelle Logik wird direkt in den Denkprozess eingebaut – ein massiver Schritt in Richtung einer KI, die Inhalte nicht nur „sieht“, sondern wirklich versteht, was sie da sieht.
Mehr Tools, mehr Power – alles in einem Modell
Neben dem besseren Verständnis haben die neuen Modelle auch deutlich mehr Werkzeuge im Gepäck. Sie können Webseiten aufrufen, Bilder generieren, Dateien analysieren und sogar über ein neues Voice-System interaktiv sprechen. Damit kommt OpenAI dem Ziel näher, ein einziges, vielseitiges Modell zu schaffen, das für ganz unterschiedliche Aufgaben eingesetzt werden kann – ganz ohne den Wechsel zwischen spezialisierten Tools.
Kurz gesagt: Diese Modelle sind nicht nur smart, sie sind auch richtig praktisch.
Beeindruckende Ergebnisse in der Praxis
Doch wie gut sind sie wirklich? In Tests wie SWE-bench, die komplexe Probleme ohne individuelles Feintuning prüfen, hat O3 starke 69,1 % erreicht – deutlich mehr als der Vorgänger O1. Die Fehlerquote bei realen Aufgaben sank um satte 20 %. Und auch O4-mini braucht sich nicht verstecken: Mit 68,1 % punktet es vor allem bei Mathe, visuellen Aufgaben und Code – schnell, präzise und effizient.
Die neuen Modelle sind damit keine Spielerei für Smalltalk – sie richten sich an Nutzerinnen und Nutzer, die mit KI wirklich arbeiten wollen: bei wissenschaftlichen Projekten, bei der Entwicklung von Software oder beim Erstellen komplexer Workflows. Hier liefert OpenAI Modelle, die mehr können als nur Antworten ausspucken – sie planen, denken voraus und liefern fundierte Lösungen.
OpenAIs Strategiewechsel: Eigentlich war O3 gar nicht geplant
Interessanterweise war das alles so ursprünglich gar nicht vorgesehen. Noch im Februar hieß es, O3 würde nicht separat veröffentlicht. Doch jetzt ist das Modell nicht nur da – es kommt gleich zusammen mit O4-mini und einer klaren Ansage: Es geht um mehr als nur ein Update. Es geht um eine neue Richtung.
OpenAI-Chef Sam Altman hat den Strategiewechsel inzwischen bestätigt. Und das nächste Modell steht schon in den Startlöchern: O3-pro soll bald für Pro-User verfügbar sein – mit noch mehr Leistung.
Seit heute haben alle, die ChatGPT Plus, Pro oder Team nutzen, Zugriff auf die neuen Modelle. Die ältere Version O1-pro bleibt zwar vorerst parallel erhalten, doch die Zeichen stehen eindeutig auf Wandel. Die hybriden Reasoning-Modelle übernehmen – weil sie nicht nur hören, was wir sagen, sondern zunehmend auch mitdenken.