Sehr wenige ehemalige Studenten können behaupten, nie eine Hausarbeit in letzter Minute geschrieben zu haben. AI-Tools bieten Schülern und Studenten bereits völlig neue Wege, ihre Arbeiten zu fälschen. Nun scheint OpenAIs neues „Deep Research“-Tool perfekt darauf ausgelegt zu sein, Studenten durch eine Seminararbeit zu schleusen – es sei denn, sie müssen Quellen angeben, die nicht Wikipedia enthalten.
Die neue Funktion von OpenAI basiert auf dem kommenden o3-Modell und wurde am Sonntag veröffentlicht. Sie ähnelt stark einer Funktion, die Google mit Gemini 2.0 bereits letztes Jahr eingeführt hat. Googles „Deep Research“ soll lange Berichte über einen Zeitraum von 30 Minuten oder länger generieren, abhängig von der Tiefe des gewünschten Themas. Vereinfacht gesagt sind sowohl Googles als auch OpenAIs Tools AI-Agenten, die mehrere Internetrecherchen durchführen und dabei logisch über die nächsten Schritte nachdenken, um einen Bericht zu erstellen.
Die Deep Research-Funktion ist für ChatGPT Pro-Abonnenten (für 200 US-Dollar im Monat) in einem neuen Tab unterhalb des Eingabefelds verfügbar. Kurz gesagt: Sie übernimmt das Googeln für den Nutzer. Anstatt eigene Quellen zu finden, erledigt das Chatbot-System diese Arbeit.
Zum Beispiel ließ OpenAI ChatGPT nach iOS- und Android-Nutzungsraten sowie nach der Anzahl der Personen suchen, die eine neue Sprache lernen möchten, um Märkte zu identifizieren, in denen sich ChatGPT besser etablieren könnte. Während dieses Prozesses fragte das Chatbot-Interface nach weiteren Details, etwa ob das Interagieren mit einer Sprachlern-App als Interesse gewertet werden sollte. Solche Rückfragen erinnern an Professoren, die bei einer Seminararbeit kritische Nachfragen stellen.
Anders als Googles Tool arbeitet OpenAIs Deep Research in einem Seitenpanel. Das Chatbot-System informiert laufend über seinen Fortschritt. In einem Beispiel aus der OpenAI-Demo recherchierte die AI Umfragen zum Thema Sprachenlernen und gab an: „Ich untersuche aktuelle Umfragen und Berichte über Smartphone-Nutzung und Betriebssystemverbreitung, um digitale Trends und Sprachinteressen weltweit zu verstehen.“
Quellenlage und potenzielle Fallstricke
Gelegentlich nennt der Bot die verwendeten Quellen – oft Wikipedia. In dem Marktanalyse-Beispiel konsultierte das System wiederholt Wikipedia, ganz wie ein Student, der in letzter Minute eine Hausarbeit schreibt. Da es sich um eine AI handelt, die das Internet durchsucht, hat sie keinen Zugriff auf nicht digitalisierte Bücher oder auf Inhalte hinter Paywalls.
Nach der Generierung des Berichts können Nutzer eine vollständige Quellenliste in einem separaten Bereich einsehen. Da das System im Grunde eine automatisierte Suchmaschine ist, hat es möglicherweise keinen Zugang zu den aktuellsten und umfangreichsten Analysen großer Forschungsinstitute. In einer Beispielanalyse zu Smartphone-Nutzungsraten verwendete die AI zwar vertrauenswürdige Quellen wie das Pew Research Center, jedoch auch Wikipedia, Statista und das Branchenmagazin Gulf Business aus den Vereinigten Arabischen Emiraten. Dies bedeutet nicht zwangsläufig, dass die Informationen falsch sind – doch die Nutzer sind der Interpretation der AI und potenziell fragwürdigen Daten ausgeliefert.
In einem weiteren Beispiel zum Thema „Ziviler Überschallflug – 10-Jahres-Marktanalyse“ (inklusive fettgedrucktem H2-Titel) nutzte die AI Wikipedia, die Webseite des Unternehmens Boom Supersonic und die Startseiten einiger Branchenmagazine. In einer anderen OpenAI-Demo konnte das Modell wissenschaftliche Arbeiten zu komplexen Biologie-Themen finden. Allerdings riss ein weiteres Beispiel, in dem eine Episode der Serie Counterpart analysiert wurde, Inhalte aus einer Fan-Wiki.
Der Prozess dauert erheblich länger als eine typische ChatGPT-Anfrage – je nach Komplexität zwischen 10 und 30 Minuten oder mehr. OpenAI behauptet, dass dies eine Aufgabe ist, die normalerweise „viele Stunden“ dauern würde. Das Unternehmen unter der Leitung von Sam Altman gibt an, dass das Deep Research-Tool höhere Punktzahlen als Gemini Thinking, GPT-4o und den „Humanity’s Last Exam„-Benchmark des Center for AI Safety erzielt habe. Letzteres ist eine AI-Benchmarking-Methode mit engen Verbindungen zur Tech-Industrie und wohlhabenden AI-Befürwortern.
OpenAI räumt ein, dass Deep Research „sehr rechenintensiv“ ist. Das Unternehmen arbeitet an einer Version, die Plus- und Team-Abonnenten in Zukunft nutzen können, wahrscheinlich mit einem weniger leistungsstarken Modell. Da die meisten Studenten nicht 200 US-Dollar im Monat für ein Schummel-Tool ausgeben werden, könnte OpenAI irgendwann eine günstigere Version anbieten – für alle, die sich ihre Wikipedia-zitierende Maschine leisten wollen.