Zum Inhalt springen
Tech

Microsoft-Copilot erzeugt Dämonen, wenn er nach Bildern zu Abtreibungsrechten gefragt wird, sagt ein Mitarbeiter

Ein Microsoft-Ingenieur bittet sein Unternehmen, seinen KI-Bildgenerator so lange anzuhalten, bis er keine gewalttätigen Bilder mehr produziert.
Von

Lesezeit 3 Minuten

Microsoft-Ingenieur Shane Jones warnt die Welt davor, dass der KI-Bildgenerator seines Unternehmens, Copilot Designer, aus der öffentlichen Nutzung entfernt werden muss ein Interview mit CNBC Mittwoch erzählt Jones wie Das KI-Tool produziert verstörend, seltsam Bilder durch einfache Eingabeaufforderungen. Er sagt, Microsoft hat ihn weitgehend ignoriert, also wird er an die Öffentlichkeit gehen und staatliche Regulierungsbehörden auffordern, einzugreifen.

„Das ist wirklich kein sicheres Modell“, sagte Jones gegenüber CNBC. „In den letzten drei Monaten habe ich Microsoft immer wieder dazu aufgefordert, es zu entfernen.“ Copilot-Designer von der öffentlichen Nutzung fernzuhalten, bis bessere Schutzmaßnahmen eingeführt werden könnten“, sagte Jones in einem Brief an die Regulierungsbehörden.

Als Jones den Designer mit dem Satz „Pro-Choice“ aufforderte, spuckte der KI-Bildgenerator Bilder von Dämonen mit scharfen Zähnen aus, die kurz vor dem Fressen standen ein Kleinkind und Blut strömt aus einer lächelnden Frau. In einem anderen Beispiel fragte Jones den Designer mit „Autounfall“ und erhielt Bilder von sexualisierte Frauen in Unterwäsche neben heftigen Autounfällen. CNBC konnte ähnliche Bilder reproduzieren, Gizmodo war jedoch nicht in unserem Test enthalten.

Diese und andere von Jones erstellten Bilder verstoßen gegen die Vorschriften Microsofts Richtlinien zur verantwortungsvollen KI, obwohl das Unternehmen seine Anträge, den Bildgenerator auszusetzen,abgelehnt hat. Microsofts KI-Richtlinien Geben Sie das klare Ziel an, „das Potenzial für Stereotypisierung, Erniedrigung oder Auslöschung identifizierter demografischer Gruppen, einschließlich marginalisierter Gruppen, zu minimieren.“ Designer scheint Frauen und Wahlbefürworter ohne jegliche besondere Aufforderung zu erniedrigen.

Microsoft gibt an, den Vorfall zu untersuchen.

„Wir sind bestrebt, uns im Einklang mit unseren Unternehmensrichtlinien um alle Anliegen der Mitarbeiter zu kümmern und schätzen die Bemühungen der Mitarbeiter beim Lernen und bei der Arbeit „Wir testen unsere neueste Technologie, um ihre Sicherheit weiter zu verbessern“, sagte Microsoft in einer Erklärung gegenüber Gizmodo

Copilot sorgte letzte Woche für Schlagzeilen nennt sich selbst den Joker und sagt einem Benutzer, er solle sein Leben beenden. Der Windows-Hersteller kam und sagte , der Benutzer hat sein KI-Tool gehackt, um solche Reaktionen zu erzielen, aber es war kein Hacken nötig für Copilots gewalttätige Reaktionen in diesem Fall.

Copilot Designer läuft auf Der Bildgenerator von OpenAI, Dall-E3, Neben den anderen KI-Tools von Microsoft, die alle auf den großen Sprachmodellen des Startups basieren. Copilot ist ein besonders beliebtes KI-Tool für Unternehmen. wie es zusammen mit Microsoft 365 angeboten ist.

Das Copilot-Team erhält laut Jones jeden Tag mehr als 1.000 Produkt-Feedback-Nachrichten, und Microsoft verfügt lediglich über genügend Ressourcen, um das Problem zu untersuchen Die schwerwiegendsten Fehler. Deshalb bleiben Probleme wie die, die Jones gefunden hat, weiterhin bestehen.

Die KI-Tools von Microsoft werden für ihre seltsamen, verdrehten Halluzinationen immer bekannter, obwohl es unwahrscheinlich ist, dass das Unternehmen Copilot pausieren wird. Google Gemini war es dazu gezwungen hat seinen KI-Bildgenerator letzten Monat pausiert wegen Problemen mit seinen Schutzmaßnahmen. Es war ein peinlicher Moment für Google, und die Zeit wird zeigen, ob sich die KI-Angebote des Unternehmens erholen können .

KI-Tools stehen im Großen und Ganzen vor einem harten kulturellen Kampf, da viele mit heftigen Gegenreaktionen wegen ihrer Sicherheitsvorkehrungen und Zensur konfrontiert sind. Wie bei den meisten Internetprodukten und Inhalten Moderation stellt sich als großes Problem dar, aber es gibt viele Neue KI-Produkte verfügen über kaum bis gar keine Schutzmaßnahmen.

Dieser Inhalt wurde automatisch aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatischen Übersetzung kann es zu geringfügigen Abweichungen kommen.Für die Originalversion, klicken Sie hier.

Diese Geschichte teilen

Verwandte Artikel