Nach Jahren der Funkstille kehrt Google mit einem realistischeren und praxisorientierten Ansatz für Smart Glasses zurück. Die Live-Demo bei der I/O 2025 kombinierte modernste Technologie, eine Partnerschaft mit Xreal und die Leistung des KI-Assistenten Gemini. Das Ergebnis: ein beeindruckender, aber nicht fehlerfreier Einblick in das, was möglich ist.
Ein unerwartetes Comeback mit bekanntem Namen

Project Aura ist zurück – diesmal nicht als gescheitertes Experiment, sondern als Mixed-Reality-Plattform mit echtem Alltagsnutzen. Die neuen Brillen, entwickelt in Kooperation mit Xreal, basieren auf Android XR und integrieren Gemini, sodass Nutzer allein mit ihrer Stimme mit der Umgebung interagieren können.
Google will eine natürlich wirkende Nutzererfahrung schaffen, die in Echtzeit funktioniert – ohne Smartphone, ohne Hände. Die Brille erkennt die Umgebung, projiziert eine Benutzeroberfläche direkt ins Sichtfeld und reagiert auf gesprochene Befehle. Damit wird sie zur unsichtbaren Erweiterung des Smartphones – nur deutlich kontextueller.
Die Demo, die alles zeigen wollte – und fast alles zeigte

Höhepunkt des Events war eine Live-Vorführung – ohne Tricks, ohne Schnitt. Shahram Izadi, Leiter der Hardwareabteilung, präsentierte das Prototyp-Modell, das von der zugeschalteten Mitarbeiterin Nishtha Bhatia bedient wurde.
Die Brille konnte Nachrichten anzeigen, Musik abspielen, Wegbeschreibungen liefern und Informationen zu einem Gemälde liefern – alles in Echtzeit und sprachgesteuert. Ein leichter Verzögerungseffekt bei Gemini deutete auf Verbindungsprobleme hin, und ein technischer Fehler beendete die geplante Simultanübersetzung zwischen Hindi und Farsi vorzeitig.
Dennoch war die Wirkung klar: Diese Technologie ist keine Zukunftsvision mehr, sondern bereits funktionsfähig – wenn auch noch nicht ganz ausgereift.
Aller guten Dinge sind drei?
Nach den gescheiterten Google Glass und anderen Versuchen scheint Google verstanden zu haben, dass der Schlüssel zu Smart Glasses nicht im Spektakel, sondern im Nutzwert liegt. Diesmal geht es nicht um futuristische Versprechen, sondern um kleine, alltagstaugliche Anwendungen: lesen, übersetzen, suchen, interagieren – ohne Bildschirm, nur mit Blick und Sprache.
Das Projekt befindet sich noch in der Entwicklung, doch die Richtung ist eindeutig. Wenn es Google gelingt, die technischen Hürden zu überwinden, könnte dies nicht nur ein spannendes Gadget, sondern der neue Standard für alltägliche Augmented-Reality-Anwendungen werden.
[Quelle: Xataka]