Jeder weiß, dass Desinformation im Internet ein großes Problem ist – eines, das es wohl schon gegeben hat zerrissene Gemeinschaften, manipulierte Wahlen und verursachte bestimmte Segmente der Weltbevölkerung den Verstand verlieren. Natürlich scheint es niemandem besonders wichtig zu sein, dieses Problem zu lösen. Tatsächlich sind es die Institutionen am meisten verantwortlich gegen Online-Desinformation (und damit diejenigen, die am besten in der Lage sind, etwas dagegen zu unternehmen) – d. h. Technologieunternehmen – offenbar Absicht Sie tun alles, was sie können, um das Problem exponentiell zu verschlimmern.
Ein typisches Beispiel: OpenAI startete Sora, sein neuer Text-zu-Video-Generator, am Donnerstag mit nur einer Textaufforderung. Die Anwendung begeistert derzeit das Internet mit ihrer bizarren Vielfalt an visuellen Bildern – egal, ob das so ist eine Chinesische Neujahrsparade, ein Typ, der im Dunkel auf einem Laufband rückwärts läuft, eine Katze im Bett, oder zwei Piratenschiffe in einer Kaffeetasse herumwirbelnd.
the sora “weakness” demos are legitimately uncannily cool video art lol https://t.co/RYp5tABXSA pic.twitter.com/nNcvBcz57M
— benjamin (@ikeadrift) February 15, 2024
Zum jetzigen Zeitpunkt könnte man trotz seiner „weltverändernden“ Mission argumentieren, dass OpenAIs größter Beitrag zum Internet das Augenblickliche war Generation von unzähligen Terabyte digitalem Mist. Alle offenen und öffentlichen Tools des Unternehmens sind Content-Generatoren, deren Art Experten haben gewarntsind darauf vorbereitet, in Betrugs- und Desinformationskampagnen eingesetzt zu werden
In sein Blogbeitrag In Bezug auf Sora gibt das OpenAI-Team offen zu, dass seine neue App potenzielle Nachteile haben könnte. Um diesen Nachteilen entgegenzuwirken, hat das Unternehmen sagt, dass es an Wasserzeichentechnologien arbeitet, die Inhalte kennzeichnen würden, die sein Generator erstellt hat. Es arbeitet auch mit sachkundigen Leuten zusammen, um herauszufinden, wie das geht um die unvermeidliche Flut von KI-generiertem Mist, den Sora freisetzen wird, weniger giftig zu machen. Sora ist noch nicht für die Öffentlichkeit zugänglich und In der Zwischenzeit sagt OpenAI, dass es Systeme schaffen wird, die es Benutzern verbieten, gewalttätige oder sexuelle Bilder zu erzeugen. In der Erklärung heißt es: :
Wir werden politische Entscheidungsträger, Pädagogen und Künstler auf der ganzen Welt einbeziehen, um ihre Anliegen zu verstehen und positive Anwendungsfälle für diese neue Technologie zu identifizieren . Trotz umfangreicher Forschung und Tests können wir nicht alle nutzenden Arten wie die Menschen unsere Technologie verwenden, und auch nicht alle wie die Menschen haben werde es missbrauchen
Diese Formulierung des Problems – als ob OpenAI nicht ganz sicher sei, wie seine App möglicherweise missbraucht werden könnte – ist irgendwie urkomisch, weil es so ist Es ist bereits völlig klar, wie es passieren wird. Sobald es live geht, wird Sora gefälschte Inhalte in gigantischem Ausmaß generieren – einige davon werden es tun werden wahrscheinlich für Desinformationszwecke verwendet, von denen einige – es scheint unbestreitbar – zur Unterstützung einer Vielzahl von Betrugsfällen und anderen Zwecken eingesetzt werden Betrügereien, von denen einige dazu verwendet werden, toxische Inhalte der einen oder anderen Art zu generieren. All diese Inhalte werden die sozialen Medien überschwemmen Medienkanäle, die es für den Alltagsmenschen schwieriger machen, zwischen Echtem und Fake zu unterscheiden, und das Internet im Allgemeinen zu einem Es ist noch viel ärgerlicher. Ich glaube nicht, dass es eines globalen Expertengremiums bedarf, um das herauszufinden.
OpenAI hat erklärt, dass es den von Sora produzierten gewalttätigen und sexuellen Inhalten sinnvolle Grenzen setzen will, aber Webnutzer haben gezeigt, wie geschickt sie sind Sie können sein bei Jailbreaking von KI-Systemen die Arten von Inhalten zu generieren, die den Verwendungsrichtlinien von Unternehmen verstoßen wird hier zutreffen.
Es gibt noch eine Reihe weiterer offensichtlicher Nachteile dieser App. Zum einen werden Sora – und andere seiner Art – wahrscheinlich keine Nachteile haben die größten Umweltauswirkungen. Forscher haben gezeigt, dass Text-zu-Bild-Generatoren funktionieren sind aus Umweltgründen deutlich schlechter als Textgeneratoren, Und allein das Erstellen eines KI-Bildes erfordert die gleiche Energiemenge wie das vollständige Aufladen Ihres Smartphones. Und noch etwas anderes Neue Technologien zur Text-zu-Video-Generierung werden wahrscheinlich der Wirtschaft der Videokünstler schaden, denn warum sollten Unternehmen Menschen für die Erstellung visueller Inhalte bezahlen, wenn überhaupt? Was zum Erstellen eines Videos notwendig ist, ist das Klicken auf eine Schaltfläche?
Als solches fühlt sich Sora wie ein echter „Fick in die Realität“ an, aber es ist auch ein „Fick in jede Menge andere Dinge“. Was die Unternehmensklasse in diesem Land betrifft, ist nichts wirklich wichtig außer Geld. Scheiß auf die Umwelt, scheiß auf Künstler, scheiß auf das Internet Das ist frei von Desinformation, scheiß auf die Gesundheit des politischen Diskurses, scheiß auf alles, was dem Profitmotiv im Weg steht. Alles, was kann gequetscht werden, um Geld zu verdienen, sollte gequetscht werden, selbst wenn es sich um ein Softwareprogramm handelt, dessen einziger wirklicher Nutzen darin besteht, dass es ein Geld generieren kann Video eines Cowboy-Hamsters, der auf einem Drachen reitet one X user put it: „Das ist es, wofür die Idioten ihre Umwelt opfern. Dumm. Scheiße. Genau so.“
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024