Das Fazit stammt von der renommierten „Presidential Panel on the Future of AI Research“, veranstaltet von der Association for the Advancement of Artificial Intelligence (AAAI) im Jahr 2025. 24 KI-Expertinnen und -Experten aus verschiedenen Disziplinen – von technischer Infrastruktur bis zu sozialen Auswirkungen – haben daran mitgewirkt. Ergänzt wurde der Bericht durch eine breit angelegte Umfrage in der KI-Community, an der Hunderte Fachleute teilgenommen haben.
KI-Wahrnehmung vs. Realität
Besonders deutlich wird die Kluft zwischen öffentlicher Wahrnehmung und tatsächlichem Forschungsstand im Abschnitt „AI Perception vs. Reality“, geleitet vom MIT-Wissenschaftler Rodney Brooks. Dort wird der sogenannte Gartner Hype Cycle zitiert – ein Modell, das beschreibt, wie technologische Innovationen zunächst überhöhte Erwartungen wecken und dann durch eine Phase der Enttäuschung gehen, bevor sie realen Nutzen stiften.
Laut Gartner war der Hype um generative KI im November 2024 bereits über den Zenit hinaus. Im Bericht heißt es dazu: 79 % der Befragten finden, dass die öffentliche Wahrnehmung nicht mit dem aktuellen Stand der Forschung übereinstimmt. Ganze 90 % sagen, dass dieser Unterschied der Forschung aktiv schade. Und knapp drei Viertel davon betonen: Die Richtung der Forschung werde zunehmend vom Hype diktiert.
„Ich habe das Hype-Modell aufgenommen, weil es in so vielen Bereichen zutreffend war – und gerade deshalb sollten wir auch bei KI mit Vorsicht auf die überzogenen Versprechungen reagieren“, so Brooks gegenüber Gizmodo. Seiner Meinung nach wird ein Großteil der öffentlichen Debatte von unrealistischen Erwartungen getragen.
AGI: Der heilige Gral – aber so nicht
AGI, also künstliche allgemeine Intelligenz, bezeichnet ein hypothetisches System, das Informationen genauso verstehen und daraus lernen kann wie ein Mensch. Für viele ist sie der heilige Gral der KI-Forschung – mit enormen potenziellen Auswirkungen: von Alltagsaufgaben wie Urlaubsplanung oder Steuererklärung bis hin zu Fortschritten in Bildung, Verkehr oder Wissenschaft.
Doch: 76 % der 475 befragten Fachleute sagen, dass eine bloße Skalierung heutiger Modelle nicht ausreicht, um AGI zu erreichen.
Der Bericht fasst zusammen: „Die Rückmeldungen spiegeln einen vorsichtigen, aber progressiven Kurs wider: Sicherheitsfragen, ethische Regulierung, gerechte Verteilung der Vorteile und langsame Innovation stehen im Vordergrund. Es geht nicht um ein Wettrennen zur AGI, sondern um verantwortungsvolle Zusammenarbeit.“
Trotz Hype: KI hat riesige Fortschritte gemacht
Das bedeutet allerdings nicht, dass sich in den letzten Jahren nichts getan hat. Im Gegenteil.
„Vor fünf Jahren hätten wir dieses Gespräch gar nicht führen können“, erklärt Henry Kautz, Informatiker an der University of Virginia und verantwortlich für den Abschnitt über Faktenlage und Vertrauenswürdigkeit. „Damals war KI noch auf Bereiche beschränkt, in denen Fehler kaum ins Gewicht fielen – Produktempfehlungen zum Beispiel – oder auf eng definierte Aufgaben, wie das Klassifizieren von wissenschaftlichen Bildern.“
Heute, so Kautz, sähe das ganz anders aus: „Plötzlich – historisch betrachtet jedenfalls – ist allgemeine KI Realität geworden. Vor allem durch Chatbots wie ChatGPT.“
Allerdings: Die Genauigkeit von KI-Systemen ist laut Bericht noch lange nicht zufriedenstellend. In einem Benchmark-Test aus dem Jahr 2024 konnten die besten Sprachmodelle nur etwa die Hälfte der gestellten Fragen korrekt beantworten.
Aber: Neue Trainingsmethoden könnten die Modelle robuster machen – und neue Wege der Organisation könnten ihre Leistung erheblich verbessern. Kautz glaubt, dass der nächste Schritt darin besteht, einzelne KI-Agenten durch ganze Teams zu ersetzen, die sich gegenseitig auf Fehler überprüfen: „So könnten sie sich selbst zur Ehrlichkeit zwingen.“
Der Blick nach vorn: Nicht weniger, sondern besser
KI wird nicht wieder verschwinden – das zeigt auch der Hype Cycle, der nach dem Tal der Enttäuschungen mit dem „Plateau der Produktivität“ endet. Was jetzt zählt, ist der kritische Blick auf das, was wir tun – und wie wir es tun.
Die gute Nachricht ist: Viele in der Forschung tun genau das. Sie hinterfragen die Grundlagen der aktuellen KI-Systeme, denken über ihren Einsatz im Alltag nach und fordern neue Maßstäbe in Sachen Ethik, Transparenz und gesellschaftlichem Nutzen.
Oder anders gesagt: Auch wenn wir noch weit von menschenähnlicher Intelligenz entfernt sind – der Weg dorthin muss nicht schnell, sondern gut durchdacht sein. Denn eines ist klar: In eine Welt ohne KI kehren wir nicht zurück. Also können wir genauso gut dafür sorgen, dass sie funktioniert.