OpenAI plant, sein Deep-Research-Modell bald für Nutzer der kostenlosen ChatGPT-Version zugänglich zu machen. Das bestätigte CEO Sam Altman in einem Post auf X. Deep Research ist der inoffizielle Name für große Sprachmodelle, die mit einer sogenannten „Test-Time“-Methode arbeiten, um tiefgehende, detaillierte Forschungsberichte zu generieren. Diese Berichte können zwischen 30 Minuten und mehreren Stunden in der Erstellung dauern. Einige Experten behaupten, dass Deep Research zukünftig Menschen in Berufen wie der Unternehmensanalyse oder dem Finanzwesen ersetzen könnte. Diese Annahmen sollte man jedoch mit Vorsicht genießen.
Altman kündigte außerdem an, dass OpenAI seine verschiedenen KI-Modelle vereinheitlichen wird. Viele Nutzer hatten sich darüber beschwert, dass die Unterschiede zwischen den einzelnen Modellen nicht klar seien. „Wir hassen den Modell-Picker genauso sehr wie ihr und wollen zur magischen, einheitlichen Intelligenz zurückkehren“, sagte Altman. „Als nächstes veröffentlichen wir GPT-4.5, das wir intern Orion nannten. Dies wird unser letztes Modell sein, das nicht auf Chain-of-Thought basiert. Danach ist unser Hauptziel, die o-Series- und GPT-Series-Modelle zu vereinen, indem wir Systeme entwickeln, die alle unsere Tools nutzen können, wissen, wann sie länger nachdenken müssen oder nicht, und generell für eine breite Palette von Aufgaben nützlich sind.“
In naher Zukunft sollen Nutzer der kostenlosen Version „unbegrenzten“ Zugang zu einem neuen Modell erhalten, das o3 integriert hat. Allerdings dürfen zahlende Nutzer eine höhere Intelligenz erwarten – was auch immer das genau bedeutet.
Bisher war Deep Research nur für zahlende ChatGPT-Nutzer verfügbar, die das Premium-Abo für stolze $200 pro Monat gebucht haben. Dass OpenAI seine neuesten Modelle nach und nach einer größeren Nutzerbasis zugänglich machen würde, galt als absehbar – insbesondere mit der Skalierung der Serverinfrastruktur. Altman bestätigte das in einem weiteren X-Post. In seinem typischen, komplett kleingeschriebenen Schreibstil schrieb er: „ich denke, wir werden anfangs 10 nutzungen pro monat für chatgpt plus und 2 pro monat in der kostenlosen version anbieten, mit der absicht, diese im laufe der zeit zu erhöhen.“
Große Sprachmodelle wie ChatGPT sind im Grunde genommen Wahrscheinlichkeitsmaschinen oder ein extrem leistungsfähiges Autovervollständigungstool. Sie verarbeiten Milliarden von Texten und können neue Inhalte erzeugen, die sich an echten menschlichen Texten orientieren. Dennoch „denken“ sie nicht wie Menschen. OpenAI und andere Unternehmen entwickeln deshalb fortlaufend neue Techniken, um ihre Modelle genauer und leistungsfähiger zu machen. Eine davon ist „Test-Time Thinking“. Dabei prüft das Modell seine Antworten auf logische Konsistenz, bevor es sie ausgibt. Wenn ein Nutzer beispielsweise fragt, wie viel es kosten würde, alle Uber-Fahrzeuge in den USA durch Waymos zu ersetzen, zerlegt das Modell die Anfrage in mehrere Teilfragen: Wie viele Uber gibt es aktuell? Was kostet ein Waymo-Fahrzeug? Und so weiter.
Die KI-Industrie probiert schon seit Jahren alles Mögliche aus, um eine echte Revolution zu schaffen, mit der KI-Modelle Menschen in verschiedenen Berufen ersetzen können. Deep Research ist der neueste Versuch in dieser Richtung. Ein weiteres Beispiel sind KI-Agenten, die nicht nur Texte generieren, sondern aktiv Aufgaben auf einem Computer erledigen können – etwa einen Flug buchen. Besonders für ältere Menschen, die sich mit Technik schwertun, könnten solche Agenten nützlich sein. Allerdings sind frühe Versionen, wie OpenAIs „Operator“, laut ersten Nutzern oft noch langsam und fehleranfällig.
Trotz beeindruckender Fähigkeiten bleibt die Genauigkeit von KI-Modellen ein großes Problem. Während des Super Bowls strahlte Google einen Werbespot für seinen Gemini-Chatbot aus, der falsche Informationen enthielt. Nutzer auf X bemerkten, dass ChatGPT oft falsche Angaben zu NFL-Spielern macht, obwohl es Zugriff auf aktuelle Kaderlisten von NFL.com hat. Auch Apple musste kürzlich seine KI-basierten Benachrichtigungszusammenfassungen zurückfahren, nachdem sie falsche BBC-News-Meldungen generiert hatten.
Einige KI-Befürworter argumentieren, dass ein Text, der sich richtig anhört, in der Regel auch richtig sei. Doch das Hauptproblem bleibt: Viele Nutzer gehen automatisch davon aus, dass KI-generierte Inhalte korrekt sind – selbst wenn sie es nicht sind. Google hat in seinen KI-Demos mehrfach falsche Informationen präsentiert, was zeigt, dass selbst die Verantwortlichen nicht immer genau hinschauen.
Währenddessen sieht sich OpenAI mit anderen Herausforderungen konfrontiert, darunter ein langwieriger Rechtsstreit mit Elon Musk. Diese Woche eskalierte die Situation weiter, als Musk ein feindliches Übernahmeangebot in Höhe von 97 Milliarden Dollar unterbreitete, um OpenAI von Sam Altman zu übernehmen. Zwar konnte Musk Twitter trotz aller Widerstände übernehmen, doch die Situation ist hier eine andere: OpenAI ist eine private Organisation und noch immer eine Non-Profit-Organisation. Auch wenn das Unternehmen plant, in ein gewinnorientiertes Modell überzugehen, gibt es aktuell keine Verpflichtung gegenüber Investoren, was bedeutet, dass ein Verkauf wohl nicht zwingend auf der Agenda steht.