Zum Inhalt springen
Tech

„Deine KI-Freundin“ ist eine datensammelnde Horrorshow

Das Datenschutz-Chaos ist besorgniserregend, weil die Chatbots Sie aktiv dazu ermutigen, Details zu teilen, die weitaus persönlicher sind als in einer typischen App.
Von

Lesezeit 3 Minuten

Einsam am Valentinstag? KI kann helfen. Zumindest wird Ihnen das eine Reihe von Unternehmen, die „romantische“ Chatbots anbieten, sagen. Aber Während sich Ihre Roboter-Liebesgeschichte entfaltet, gibt es einen Kompromiss, den Sie möglicherweise nicht realisieren. Dies geht aus einer neuen Studie von Mozillas Datenschutz hervor Nicht enthaltenes Projekt, KI-Freundinnen und -Freunde sammeln erschreckend persönliche Informationen und fast alle von ihnen verkaufen oder teilen die gesammelten Daten

„Um es ganz offen zu sagen: KI-Freundinnen und -Freunde sind nicht deine Freunde“, sagte Misha Rykov, ein Mozilla-Forscher, in einer Pressemitteilung. „Obwohl sie als etwas vermarktet werden, das Ihre geistige Gesundheit und Ihr Wohlbefinden verbessert, sind sie darauf spezialisiert, Abhängigkeit, Einsamkeit und Toxizität zu bekämpfen , und dabei so viele Daten wie möglich von Ihnen zu erpressen.“

11 verschiedene KI-Romantik-Chatbots, darunter beliebte Apps wie Replica, Chai, Romantic AI, EVA AI Chat Bot und Soulmate sowie CrushOn.AI. Jeder einzelne hat gewonnen Das Label „Datenschutz nicht inbegriffen“, was diese Chatbots zu den schlechtesten Produktkategorien zählt, die Mozilla je überprüft hat hat nicht sofort auf Anfragen nach Kommentar geantwortet.Sie haben schon Geschichten über Datenprobleme gehört, aber laut Mozilla verletzen KI-Freundinnen Ihre Privatsphäre auf „neue und beunruhigende Weise“. , CrushOn.AI sammelt Details, einschließlich Informationen über sexuelle Gesundheit, die Verwendung von Medikamenten und geschlechtsgerechte Pflege. 90 % der Apps können verkauft werden oder Benutzerdaten für zielgerichtete Werbung und andere Zwecke weitergeben, und mehr als die Hälfte lässt nicht zu, dass Sie die erfassten Daten löschen. Sicherheit war auch ein Problem. Nur eine App, Genesia AI Friend & Partner, entsprach Mozillas Mindestsicherheitsstandards.

Eines der auffälligsten Ergebnisse kam, als Mozilla die Tracker in diesen Apps zählte, kleine Codebits, die Daten sammeln und weitergeben mit anderen Unternehmen für Werbung und andere Zwecke. Mozilla hat herausgefunden, dass die KI-Girlfriend-Apps im Durchschnitt 2.663 Tracker pro Minute verwendeten Die Zahl wurde durch Romantic AI erhöht, das in nur einer Minute der Nutzung der App sage und schreibe 24.354 Tracker anrief.

Das Datenschutz-Chaos ist noch besorgniserregender, weil die Apps Sie aktiv dazu ermutigen, Details weiterzugeben, die weitaus persönlicher sind Etwas, das Sie in eine typische App eingeben könnten. EVA AI Chat Bot und Soulmate drängt Benutzer dazu, „alle Ihre Geheimnisse und Wünsche zu teilen“. und fragt ausdrücklich nach Fotos und Sprachaufnahmen. Es ist erwähnenswert, dass EVA der einzige Chatbot war, der dafür nicht kritisiert wurde verwendet diese Daten, obwohl die App Sicherheitsprobleme aufwies.

Abgesehen von Datenproblemen machten die Apps auch einige fragwürdige Behauptungen darüber, wofür sie gut sind. EVA AI Chat Bot & Soulmate rechnet sich selbst ab als „Anbieter von Software und Inhalten, die entwickelt wurden, um Ihre Stimmung und Ihr Wohlbefinden zu verbessern.“ Romantische KI sagt, dass sie „hier ist, um Ihre Stimmung und Ihr Wohlbefinden zu verbessern“. GEISTIGE GESUNDHEIT.“ Wenn man jedoch die Allgemeinen Geschäftsbedingungen des Unternehmens liest, tun sie sich alle Mühe, sich von ihren eigenen Ansprüchen zu distanzieren .In den Richtlinien von Romantic AI heißt es beispielsweise, dass es sich weder um einen Anbieter von Gesundheitsfürsorge oder medizinischen Dienstleistungen noch um die Bereitstellung medizinischer Versorgung oder psychischer Gesundheit handelt Dienstleistung oder andere professionelle Dienstleistung.“

Das ist angesichts der Geschichte dieser App wahrscheinlich ein wichtiger rechtlicher Grund, den es abzudecken gilt. Berichten zufolge ermutigte Replika den Versuch eines Mannes, dies zu tun

die Königin von England ermorden. Angeblich ein Chai-Chatbotermutigte einen Benutzer, Selbstmord zu begehen..

Dieser Inhalt wurde automatisch aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatischen Übersetzung kann es zu geringfügigen Abweichungen kommen.

Diese Geschichte teilen

Verwandte Artikel