Zum Inhalt springen
io9

Microsoft nennt Entwickler, die es wegen Missbrauchs seiner KI-Tools verklagt hat

Microsoft hat eine im letzten Jahr eingereichte Klage geändert, um die vier Angeklagten zu benennen, die angeblich seine KI-Modelle missbraucht haben, um Promi-Deepfakes zu erstellen.
Von Thomas Maxwell Übersetzt von

Lesezeit 3 Minuten

Microsoft versucht, sein Engagement für KI-Sicherheit zu zeigen, indem es eine im letzten Jahr eingereichte Klage ändert, um die vier Entwickler zu enttarnen, die angeblich die Schutzmaßnahmen seiner KI-Tools umgangen haben, um Promi-Deepfakes zu generieren. Das Unternehmen reichte die Klage im Dezember ein, und ein Gerichtsbeschluss, der es Microsoft ermöglichte, eine mit der Operation verbundene Website zu beschlagnahmen, half dabei, die Personen zu identifizieren.

Die vier Entwickler sind Berichten zufolge Teil eines globalen Cyberkriminalitätsnetzwerks namens Storm-2139: Arian Yadegarnia alias „Fiz“ aus dem Iran; Alan Krysiak alias „Drago“ aus dem Vereinigten Königreich; Ricky Yuen alias „cg-dot“ aus Hongkong und Phát Phùng Tấn alias „Asakuri“ aus Vietnam.

Die Klage und das Problem der Deepfakes

Microsoft sagt, es habe weitere Personen identifiziert, die an dem Schema beteiligt sind, möchte sie jedoch noch nicht benennen, um eine laufende Untersuchung nicht zu beeinträchtigen. Die Gruppe, so Microsoft, habe Konten mit Zugang zu ihren generativen KI-Tools kompromittiert und es geschafft, diese zu „jailbreaken“, um beliebige Arten von Bildern zu erzeugen. Die Gruppe verkaufte dann den Zugang an andere, die ihn nutzten, um tiefgefälschte Nacktbilder von Prominenten zu erstellen, neben anderem Missbrauch.

Nachdem die Klage eingereicht und die Website der Gruppe beschlagnahmt wurde, sagte Microsoft, dass die Angeklagten in Panik gerieten. „Die Beschlagnahme dieser Website und die anschließende Enthüllung der rechtlichen Unterlagen im Januar löste eine sofortige Reaktion der Akteure aus, was in einigen Fällen dazu führte, dass Gruppenmitglieder sich gegeneinander wendeten und einander beschuldigten“, hieß es auf ihrem Blog.

Celebrities, einschließlich Taylor Swift, waren häufig Ziel von Deepfake-Pornografie, bei der das Gesicht einer echten Person überzeugend auf einen nackten Körper überlagert wird. Bereits im Januar 2024 musste Microsoft seine Text-zu-Bild-Modelle aktualisieren, nachdem gefälschte Bilder von Swift im Internet aufgetaucht waren. Generative KI macht es unglaublich einfach, die Bilder mit wenig technischer Fähigkeit zu erstellen – was bereits zu einer Epidemie von Deepfake-Skandalen in den USA geführt hat. Geschichten von Opfern von Deepfakes verdeutlichen, dass die Erstellung dieser Bilder zwar digital ist, aber zu realen Schäden führt, indem sie die Betroffenen ängstlich, verängstigt und verletzt fühlen lässt, da sie wissen, dass jemand dort draußen besessen genug von ihnen ist, um es zu tun.

Künftige Regulierung von KI-Technologien

Es gibt eine laufende Debatte in der KI-Gemeinschaft über das Thema der Sicherheit und ob die Bedenken real sind oder eher dazu gedacht, großen Akteuren wie OpenAI zu helfen, Einfluss zu gewinnen und ihre Produkte zu verkaufen, indem sie die wahre Macht der generativen künstlichen Intelligenz übertrieben darstellen. Ein Lager hat argumentiert, dass die Beibehaltung eines Closed-Source-Ansatzes bei KI-Modellen helfen kann, den schlimmsten Missbrauch zu verhindern, indem es Benutzern erschwert wird, Sicherheitskontrollen zu deaktivieren; das Open-Source-Lager glaubt, dass es notwendig ist, Modelle kostenlos zu modifizieren und zu verbessern, um den Sektor zu beschleunigen, und Missbrauch kann angegangen werden, ohne die Innovation zu behindern. In jedem Fall fühlt es sich wie eine Ablenkung von der unmittelbareren Bedrohung an, nämlich dass KI das Netz mit ungenauen Informationen und minderwertigen Inhalten füllt.

Obwohl viele Ängste über KI übertrieben und hypothetisch erscheinen und es unwahrscheinlich ist, dass generative KI irgendwo in der Nähe gut genug ist, um eigenständig zu handeln, ist der Missbrauch von KI zur Erstellung von Deepfakes real. Rechtliche Mittel sind eine Möglichkeit, diesen Missbrauch zu bekämpfen, unabhängig davon, ob ein Modell offen oder geschlossen ist. In den USA gab es bereits eine Reihe von Verhaftungen von Personen, die KI zur Erstellung von Deepfakes von Minderjährigen genutzt haben, und der im letzten Jahr eingeführte NO FAKES Act würde es zu einem Verbrechen machen, Bilder basierend auf dem Abbild einer Person zu erstellen. Das Vereinigte Königreich bestraft bereits die Verbreitung von Deepfake-Pornografie, und bald wird es auch ein Verbrechen sein, sie überhaupt zu produzieren. Australien hat kürzlich die Erstellung und Verbreitung nicht einvernehmlicher Deepfakes kriminalisiert.

Diese Geschichte teilen

Verwandte Artikel