Apples neue Apple-Intelligenz System ist darauf ausgelegt, generative KI in den Kern von iOS einzubinden. Das System bietet Benutzern eine Vielzahl neuer Dienste, darunter die Erstellung von Text und Bild sowie Organisations- und Planungsfunktionen. Obwohl das System beeindruckende neue Funktionen bietet, bringt es auch Komplikationen mit sich. Zum einen Punkt ist das KI-System auf eine große Menge von Daten der iPhone-Nutzer vertraut und bietet potenzielle Risiken für den Datenschutz. Gleichzeitig bedeutet der erhebliche Bedarf des KI-Systems an mehr Rechenleistung dass Apple sich zunehmend auf sein Cloud-System verlassen muss, um die Anfragen der Nutzer erfüllen zu können.
Apple bietet iPhone-Kunden schon einen unvergleichlichen Datenschutz. Es ist ein großer Teil der Marke des Unternehmens, immerhin. Teil dieser Datenschutzgarantien war die Option, wählen zu können, wann mobile Daten lokal und wann in der Cloud gespeichert werden werden. Obwohl eine erhöhte Verwendung von der Cloud bei den Datenschutzalarmen schrillen lässt, hat Apple diesen Bedenken vorausgesehen und ein überraschendes neues System entwickelt, das es sein eigenes System nennt. Private Cloud Compute, oder PCC. Dabei handelt es sich um ein Cloud-Sicherheitssystem, das dafür entwickelt ist, Benutzerdaten vor neugierigen Blicken zu schützen, während sie zur Erfüllung KI-bezogener Anfragen verwendet werden.
Auf dem Papier klingt Apples neues Datenschutzsystem wirklich beeindruckend. Das Unternehmen behauptet, „die fortschrittlichste Sicherheitsarchitektur geschaffen zu haben, die je für Cloud-KI-Computing im großen Maßstab eingesetzt wurde“. Was auf dem Papier jedoch wie eine enorme Leistung aussieht, könnte letztlich zu größeren Problemen für die Privatsphäre der Benutzer führen. Und zumindest zum jetzigen Zeitpunkt ist unklar, ob Apple seine hochtrabenden Versprechen einhalten kann.
So soll Apples Private Cloud Compute funktionieren
In vielerlei Hinsicht sind Cloud-Systeme einfach riesige Datenbanken. Wenn ein böswilliger Akteur in dieses System bzw. diese Datenbank eindringt, kann er sich die darin enthaltenen Daten ansehen. Allerdings bietet Apples Private Cloud Computing (PCC) bietet eine Reihe einzigartiger Sicherheitsvorkehrungen, die diese Art des Zugriffs verhindern sollten.
Apple sagt, es habe sein Sicherheitssystem sowohl auf Software- als auch auf Hardware- Ebene implementiert. Das Unternehmen hat benutzerdefinierte Server erstellt, auf denen das neue Cloud- System beherbergt wird, und diese Server werden während der Herstellung einem strengen Screening- Prozess unterzogen, um ihre Sicherheit zu gewährleisten. „Wir inventarisieren und führen hochauflösende Bilder von den Komponenten des PCC- Knotens durch“, behauptet das Unternehmen. Die Server werden auch mit physischen Sicherheitsmechanismen wie einem manipulationssicheren Siegel ausgestattet. Die Geräte von iPhone-Nutzern können nur eine Verbindung zu Servern herstellen, die als Teil des geschützten Systems zertifiziert wurden, und diese Verbindungen sind Ende-zu-Ende verschlüsselt, was bedeutet, dass die übertragenen Daten während der Übertragung so praktisch unantastbar sind.
Sobald die Daten die Server von Apple erreichen, gibt es weitere Schutzmaßnahmen, um sicherzustellen, dass sie vertraulich bleiben. Apple sagt, dass seine Cloud Folgendes nutzt: zustandsloses Computing ein System zu schaffen in dem Benutzerdaten nicht über den Zeitpunkt hin gespeichert werden, an dem sie zur Erfüllung einer KI-Dienstanfrage verwendet werden. Laut Apple haben Ihre Daten in diesem System also keine bedeutende Lebensspanne. Die Daten werden von Ihrem Telefon in die Cloud gewandert, interagieren mit Apples hochleistungsfähigen KI-Algorithmen – und erfüllen so jede zufällige Frage oder Anfrage, die Sie gestellt haben („Mal mir ein Bild vom Eiffelturm auf dem Mars“)– und werden dann (wiederum laut Apple) gelöscht.
Apple hat eine Reihe weiterer Sicherheits- und Datenschutzmaßnahmen eingeführt, über die Sie im Detail mehr lesen können auf dem Firmenblog. Diese Abwehrmaßnahmen sind zwar unterschiedlich, scheinen jedoch alle auf ein Ziel abzielt: jeden Einbruch in das neue Cloud-System des Unternehmens zu verhindern.
Aber ist das wirklich seriös?
Unternehmen machen ständig große Versprechungen zur Cybersicherheit und es ist normalerweise unmöglich zu überprüfen, ob sie die Wahrheit sagen oder nicht. Die gescheiterte Kryptobörse FTX behauptete einst, sie würde die digitalen Vermögenswerte der Benutzer auf abgeschotteten Servern aufbewahren. Spätere Untersuchungen zeigten, dass … war reiner Schwachsinn. Aber Apple ist natürlich anders. Um Außenstehenden zu beweisen zu können, dass es seine Cloud wirklich sichert, will das Unternehmen ein sogenanntes „Transparenzprotokoll einführen , das die vollständige Produktion berücksichtigt . Software-Bilder (im Grunde Kopien des vom System verwendeten Codes). Es ist geplant, diese Protokolle regelmäßig zu veröffentlichen, damit externe Forscher überprüfen können, ob die Cloud genau wie von Apple angegeben funktioniert.
Was die Leute über den PCC sagen
Apples neues Datenschutzsystem hat die Tech-Community deutlich polarisiert. Während der enorme Aufwand und die beispiellose Transparenz, die das Projekt auszeichnen, viele beeindruckt haben, sind einige besorgt über die weitreichenden Auswirkungen, die es auf den mobilen Datenschutz im Allgemeinen haben könnte. Vor allem – oder auch lautstark – Elon Musk. begann sofort zu verkünden dass Apple seine Kunden betrogen hatte.
Simon Willison, ein Webentwickler und Programmierer, sagte gegenüber Gizmodo, dass ihn das „Ausmaß der Ambitionen“ des neuen Cloud-Systems beeindruckt habe.
„Sie gehen mehrere extrem schwierige Probleme im Bereich des Datenschutz-Engineering auf einmal an“, sagt er. „Am beeindruckendsten ist meiner Meinung nach die Überprüfbarkeit – der Teil wo sie Bilder zur Überprüfung in einem Transparenzprotokoll veröffentlichen, mit dem Geräte sicherstellen können, dass sie nur mit einem Server kommunizieren, auf dem Software läuft, die öffentlich gemacht wurde. Apple beschäftigt einige der besten Datenschutzingenieure der Branche, aber selbst für ihre Maßstäbe ist das eine beeindruckende Arbeit.“
Doch nicht alle sind so begeistert. Matthew Green, Kryptografieprofessor an der Johns Hopkins University, äußerte sich skeptisch gegenüber Apples neuem System und den damit verbundenen Versprechungen.
„Ich bin nicht begeistert davon“, sagte Green seufzend. „Meine größte Sorge ist, dass dadurch viel mehr Benutzerdaten in einem Rechenzentrum zentralisiert werden, während sich derzeit die meisten davon auf den Telefonen der Leute befinden.“
Historisch gesehen hat Apple die lokale Datenspeicherung zu einem Hauptbestandteil seines Mobildesigns gemacht, da Cloud-Systeme für ihre Mängel im Datenschutz bekannt sind.
„Cloud-Server sind nicht sicher, deshalb hat Apple schon immer diesen Ansatz verfolgt“, sagte Green. „Das Problem ist, dass bei all diesem KI-Zeug, das gerade abläuft, die internen Chips von Apple nicht leistungsstark genug sind, um das zu tun, was sie tun sollen. Also müssen sie die Daten an Server senden und versuchen, diese supergeschützten Server zu bauen, in die sich niemand hacken kann.“
Er versteht, warum Apple diesen Schritt unternimmt, ist aber nicht unbedingt damit einverstanden, da dies eine stärkere Abhängigkeit von der Cloud bedeutet.
Green sagt, Apple habe auch nicht klargestellt, ob es den Benutzern erklären werde, welche Daten lokal bleiben und welche Daten mit der Cloud geteilt werden. Dies bedeutet, dass Benutzer möglicherweise nicht wissen, welche Daten von ihren Telefonen exportiert werden. Gleichzeitig hat Apple nicht klargestellt, ob iPhone-Benutzer können sich vom neuen PCC-System abmelden. Wenn Benutzer gezwungen sind, einen bestimmten Prozentsatz ihrer Daten mit der Cloud von Apple zu teilen, bedeutet dies möglicherweise weniger Autonomie für den durchschnittlichen Benutzer, nicht mehr. Gizmodo hat sich an Apple gewandt, um eine Klarstellung zu beiden Punkten zu erhalten, und wird diese Geschichte aktualisieren, wenn das Unternehmen antwortet.
Für Green signalisiert Apples neues PCC-System einen Wandel in der Telefonbranche hin zu einer stärker auf die Cloud ausgerichteten Haltung. Dies könne insgesamt zu einer weniger sicheren Datenschutzumgebung führen, sagt er.
„Ich habe sehr gemischte Gefühle dabei“, sagte Green. „Ich denke, dass genügend Unternehmen hochentwickelte KI einsetzen werden, sodass kein Unternehmen mehr zurückgelassen werden möchte. Ich denke, dass die Verbraucher Unternehmen, die keine großartigen KI-Funktionen haben, wahrscheinlich bestrafen werden.“