Apple hat noch kein festes Datum für den Start seiner Apple-Intelligence-unterstützten Siri bekannt gegeben. Und das hat wohl einen guten Grund: Neue Berichte von renommierten Apple-Insidern deuten darauf hin, dass die KI-optimierte Siri so schnell nicht kommen wird. Vielleicht ist eine längere Verzögerung sogar gut für Apple – und vor allem für die Nutzer.
Die schrittweise Einführung von Apple Intelligence begann im Oktober, doch bislang gibt es keine Chatbot-Funktionen, die mit Software wie Googles Gemini mithalten können. Laut Bloomberg-Reporter und Apple-Experte Mark Gurman soll iOS 19 – das auf der WWDC 2025 im Sommer vorgestellt wird – die neue Siri beinhalten. Doch der offizielle Rollout könnte sich bis ins Frühjahr 2026 verzögern, möglicherweise als Teil von iOS 19.4. Gurman beruft sich auf eine Mischung aus internen und externen Quellen und hat sich in der Vergangenheit oft als treffsicher erwiesen, wenn es um Apples Zeitpläne geht.
Siris neue Konversationsfähigkeiten sollen angeblich mit Google Gemini Live vergleichbar sein. Diese „LLM Siri“, wie sie in aktuellen Berichten genannt wird, liegt jedoch noch in weiter Ferne. Währenddessen hat Google bereits neue Features vorgestellt, die es seiner KI ermöglichen, in Echtzeit auf Video- und Bildschirm-Inhalte der Nutzer zu reagieren.
Interessieren sich Nutzer überhaupt für die Siri-Verzögerung?
Apple könnte uns natürlich noch überraschen. Doch laut Gurman hat das Unternehmen massive Probleme, die veraltete Siri-Architektur mit moderner KI-Software zu verbinden. Eine wirklich natürlich sprechende Siri dürfte demnach erst 2027 marktreif sein. Noch dazu könnte iOS 19 kaum bahnbrechende Neuerungen für Apple Intelligence enthalten. Während das nach einem verpassten Trend aussieht, könnte es auch Apples Chance sein, sich auf ein Smartphone zu konzentrieren, das nicht von energiehungriger KI abhängig ist.
Die letzten iOS-Updates haben Apple Intelligence für alle iPhone 15 Pro– und iPhone 16-Nutzer aktiviert und dabei immer mehr Speicherplatz auf den Geräten beansprucht. Dabei zeigt eine aktuelle Umfrage, dass nur wenige Apple-Kunden die neuesten iPhones wegen der KI-Funktionen kaufen. Vielleicht geht Apple diesmal einen ungewöhnlichen Weg und erlaubt neben ChatGPT auch andere KI-Modelle auf seinen Geräten. Jüngste Code-Leaks deuten darauf hin, dass Google Gemini sogar standardmäßig auf dem iPhone verfügbar sein könnte – allerdings wohl in einer sehr begrenzten Version, ähnlich wie OpenAIs Integration mit Siri.
Diese Gerüchte kommen nur eine Woche, nachdem Amazon seine neue Alexa+-Plattform vorgestellt hat. Amazons System kombiniert mehrere KI-Modelle auf seinen Echo-Show-Geräten mit einer brandneuen, KI-gestützten Benutzeroberfläche. Nutzer können damit Produkte bestellen, Smart-Home-Routinen einrichten, Musik oder Filme suchen und über ihre vernetzten Sicherheitskameras kommunizieren – alles in natürlicher Sprache. Beeindruckend, aber bisher wurden diese Features nur unter kontrollierten Bedingungen bei Amazon-Demos gezeigt.
Alexa+ könnte für Nutzer interessant sein, die bereits tief im Amazon-Ökosystem stecken – insbesondere für jene, die keine großen Datenschutzbedenken gegenüber Amazons Software haben. Amazon setzt außerdem auf eine Web- und App-Integration, um Nutzer mit der Smart-Home-KI zu verbinden. Apple hat es in dieser Hinsicht leichter: Es muss Siri nur auf iPhones, MacBooks und Geräten wie dem Vision Pro verankern, um eine breite Nutzung sicherzustellen. Die Herausforderung liegt darin, Nutzer überhaupt davon zu überzeugen, dass ein KI-gestützter Sprachassistent ihr Leben erleichtert.
KI-Assistenten sind da – aber überzeugen sie wirklich?
Jedes große Tech-Unternehmen verspricht inzwischen einen KI-gestützten Assistenten, doch die Software bleibt oft hinter den Erwartungen zurück. Googles Gemini kann auf den neuesten Android-Smartphones wie dem Samsung Galaxy S25 zwar auf E-Mails zugreifen und einige App-übergreifende Aufgaben erledigen, aber es ändert nicht grundlegend, wie wir unser Smartphone nutzen. Apples KI-Features hingegen umfassen bisher eher fragwürdige Spielereien: den gruseligen „Image Playground“, sinnlose KI-Emojis und komische Benachrichtigungs-Zusammenfassungen, die mittlerweile aus der aktuellen iOS-Beta entfernt wurden.
Ich würde mir lieber ein iPhone wünschen, das sich mit der Zeit auf nützliche Weise verbessert – und nicht nur durch KI-Experimente. Ein dünneres iPhone, wie das gemunkelte iPhone 17 Air, brauche ich nicht unbedingt. Aber ein besseres Display mit höherer Bildwiederholrate für die Basis-Modelle wäre eine sinnvolle Verbesserung. Ein weiteres Problem ist der Preis: Das iPhone 16e, das genauso stark auf Apple Intelligence setzt wie das reguläre iPhone 16, startet bei 600 Dollar. Das ist längst nicht so budgetfreundlich wie das letzte iPhone SE. Es wird immer schwerer, steigende Preise zu rechtfertigen, wenn echte KI-Funktionen erst in Monaten oder Jahren verfügbar sind.