Willkommen bei AI This Week, Gizmodos wöchentlichem ausführlichen Bericht über aktuelle Entwicklungen im Bereich künstliche Intelligenz.
Diese Woche gab es Gerüchte, dass ein überparteilicher Gesetzentwurf das würde KI-Plattformen vom Schutz unter Abschnitt 230 ausschließen wird beschleunigt. Das bahnbrechende Internetgesetz schützt Websites vor der rechtlichen Haftung für die Inhalte, die sie hosten und seine Auswirkungen auf das Schicksal der KI sind unklar. Die von den Senatoren Josh Hawley (R-Missouri) und Richard Blumenthal (D-Conn.) verfasste Gesetzgebung würde KI-Unternehmen ihre „Immunität entziehen“, wenn es um zivilrechtliche Klagen oder strafrechtliche Verfahren geht. eine Pressemitteilung behauptet Hawleys Büro. Dies ist eine einmalige Erinnerung daran, dass KI ein wahres Wespennest voll heikler rechtlicher und regulatorischer Probleme ist, die noch gelöst werden müssen.
Im Großen und Ganzen wurde Abschnitt 230 dazu konzipiert, Internetplattformen vor Klagen wegen von Dritten erstellter Inhalte zu schützen. Während einzelne Nutzer dieser Plattformen für die Dinge, die sie online veröffentlichen, haftbar gemacht werden können, wird den Plattformen selbst in den meisten Fällen rechtliche Immunität gewährt. Das Gesetz wurde in den 1990er Jahren weitgehend entwickelt. als Möglichkeit zum Schutz des entstehenden Internets, denn die Regulierungsbehörden scheinen erkannt zu haben, dass das Internet nicht überleben würde, wenn alle Suchmaschinen und Message Boards durch Klagen aus dem Verkehr gezogen würden.
Natürlich haben sich die Zeiten seit der Verabschiedung des Gesetzes im Jahr 1996 geändert, und es gab anhaltende Forderungen zur Reform von Abschnitt 230 in den letzten Jahren. Wenn es um KI geht, scheint es alle möglichen Argumente zu geben, warum (oder nicht) Plattformen wie ChatGPT von der wegweisenden Gesetzgebung abgedeckt werden sollten.
Wir haben bereits gesehen, wie sich der prominente Rechtsprofessor Jonathan Turley darüber beschwerte, dass ChatGPT behauptete fälschlicherweise, dass er jemanden sexuell belästigt hätte. Die Bedrohung von Verleumdungsklagen oder anderen rechtlichen Haftpflichten schwebt derzeit über jedem Unternehmen, das KI-Produkte entwickelt, und es ist wahrscheinlich an der Zeit, einige neue Präzedenzfälle zu schaffen.
Matt Perault, Professor an der University of North Carolina in Chapel Hill, schrieb einen Aufsatz im Februar mit dem Argument, dass KI-Unternehmen nicht unter Abschnitt 230 fallen –zumindest nicht immer. Perault nach der Sicht der Dinge haben sich KI-Plattformen von Plattformen wie Google oder Facebook abgegrenzt, auf denen Inhalte passiv gehostet werden. Stattdessen vermarkten Unternehmen wie OpenAI ihre Produkte offen. als Inhaltsgeneratoren, was sie offenbar vom Schutz durch das Gesetz ausschließt.
„Der Unterschied zwischen Plattformen die 230-Schutz erhalten können und denen die das nicht können besteht im Grunde darin : Sind Sie ein Host oder sind Sie ein Inhaltsersteller?“, sagt Perault in einem Telefonat. „Das Gesetz definiert diesen Begriff wie es ist wenn Sie Inhalte ‚ganz oder teilweise‘ erstellen oder entwickeln. Das bedeutet dass selbst auch die Verwendung von Inhalten nicht berücksichtigt werden können. „ Wenn Sie Inhalte ‚teilweise‘ entwickeln, können Sie keinen Schutz nach 230 % erhalten. Meine Ansicht ist also, dass ein generatives KI-Tool, wobei der Name des Tools wörtlich ‚generativ‘ lautet – die ganze Idee besteht darin, dass es Inhalte generiert –, wahrscheinlich zumindest unter bestimmten Umständen keinen Schutz nach 230 % erhalten wird.“
Samir Jain, Vizepräsident für Politik am Center for Democracy and Technology, sagte auch er der Meinung nach es gäbe Umstände unter denen eine KI-Plattform für die von ihr generierten Dinge haftbar gemacht werden könnte. „Ich denke das wird wahrscheinlich von den Fakten der bestimmten Situation abhängen“, fügte Jain hinzu. „Im Fall von etwas wie eine „Halluzination“, in dem der generative KI-Algorithmus scheinbar etwas aus dem Null erschaffen hat, wird es wahrscheinlich schwierig sein, zu behaupten, er habe bei der Entwicklung nicht zumindest eine Rolle gespielt.“
Gleichzeitig könnte es andere Umstände geben, in denen man argumentieren könnte, dass ein KI-Tool nicht notwendigerweise als Inhaltsersteller fungiert. „Wenn auf der anderen Seite das Erzeugen der generativen KI viel mehr wie die Ergebnisse einer Suchanfrage als Antwort auf die Eingabe eines Benutzers aussieht oder wo der Benutzer wirklich gebucht hat, dann könnte es sein „Wenn Abschnitt 230 in diesem Kontext gelten kann, ist es möglich , dass Abschnitt 230 in diesem Kontext anwendbar ist“, sagt Jain. „Vieles wird von den besonderen Fakten [des einzelfalls] abhängen, und ich bin nicht sicher, ob es auf diese Frage eine einfache, einheitliche Ja- oder Nein- Antwort geben wird.“
Andere haben gegen die Idee argumentiert, dass KI-Plattformen nicht durch Abschnitt 230 geschützt sind. In ein Essay über TechDirtDie Anwältin und Technologin Jess Miers argumentiert, dass es einen Präzedenzfall gebe, der KI-Plattformen außerhalb der Kategorie der „Anbieter von Informationsinhalten“ oder der Ersteller von Inhalten einordnet. Sie zitiert mehrere Rechtsfälle, die einen Leitfaden für den regulatorischen Schutz von KI zu liefern scheinen, und argumentiert, dass Produkte wie ChatGPT als „funktional ähnlich wie ‚gewöhnliche Suchmaschinen‘ und prädiktive Technologien wie die Autovervollständigung“ angesehen werden könnten.
Quellen, mit denen ich gesprochen habe, schienen skeptisch, dass neue Vorschriften der ultimative Schiedsrichter für den Schutz von KI-Plattformen nach Abschnitt 230 sein würden – zumindest nicht zunächst. Mit anderen Worten: Es scheint unwahrscheinlich, dass Hawleys und Blumenthals Gesetzgebung die Angelegenheit regeln kann. Höchstwahrscheinlich, so Perault, sind dies Diese Fragen werden vor Gericht verhandelt, bevor umfassende gesetzgeberische Maßnahmen ergriffen werden. „Der Kongress muss eingreifen und festlegen, wie die Straßenverkehrsregeln in diesem Bereich aussehen sollen“, sagte er und fügte hinzu, dass das Problem darin bestehe, dass „der Kongress derzeit nicht in der Lage ist, Gesetze zu erlassen“.

Shutterstock
Dies ist eine alte und zugegebenermaßen etwas abgedroschene Frage, aber es lohnt sich trotzdem, sie hin und wieder zu stellen. Mit „Roboter“ meine ich jede Figur in einem Science-Fiction-Film, die eine nicht-menschliche Maschine ist. Es könnte ein Softwareprogramm oder ein vollwertiger Cyborg sein. Natürlich gibt es die üblichen Konkurrenten – HAL aus 2001: Odyssee im Weltraum, der Terminator und Roy Batty aus Blade Runner—aber es gibt auch viele andere, weitgehend vergessene Potentaten. Die Außerirdischer Franchise zum Beispiel bleibt in dieser Debatte irgendwie unbemerkt, aber fast jeder Film der Reihe verfügt über einen unvergesslichen Android gespielt von einem wirklich guten Schauspieler. Da gibt es auch Alex Garlands Ex Machina, der A24-Favorit, in dem Alicia Vikander als verführerischer Fembot auftritt. Ich habe auch eine Schwäche für M3GAN, der Film von 2022 , der im Grunde ist Kinderspiel mit Robotern. Schreiben Sie Ihre Meinung in den Kommentaren, wenn Sie Gedanken zu diesem wichtigsten Thema haben.
Weitere Schlagzeilen dieser Woche
Google scheint bei seiner Gemini-Demo diese Woche geschummelt zu haben. Falls Sie es verpasst haben: Google hat ein neues multimodales KI-Modell – Gemini— das, wie es behauptet, das bisher leistungsstärkste KI-Modell ist. Das Programm wurde als potenzieller Konkurrent von ChatGPT angekündigt, wobei Beobachter seine beeindruckenden Fähigkeiten bemerkten. Es ist jedoch ans Licht gekommen, dass Google schummelte bei der ersten Demo der Plattform. EIN Video Das am Mittwoch von der Firma veröffentlichte Video sollte Geminis Fähigkeiten demonstrieren, aber es stellte sich heraus, dass das Video bearbeitet war und der Chatbot nicht ganz so reibungslos funktionierte wie das Video zu zeigen vermutete. Dies ist offensichtlich ist nicht das erste Mal, dass ein Technologieunternehmen bei einer Produktdemo betrogen hat aber angesichts des Hypes um dieses neuen Modells ist es sicherlich ein kleiner Stolperstein für Google.
Über die vorgeschlagenen KI-Verordnungen der EU wird derzeit kritisch verhandelt. Die Europäische Union versucht derzeit, die Details ihres wegweisenden „KI-Gesetzes“ auszuarbeiten, mit dem die potenziellen Schäden durch künstliche Intelligenz angegangen werden sollen. Anders als in den USA, wo – abgesehen von eine leichte Durchführungsverordnung von der Biden-Administration – die Regierung hat vorhersehbar beschlossen, Technologieunternehmen einfach tun zu lassen, was sie wollen, versucht die EU tatsächlich eine KI-Governance einzuführen. Allerdings schwierig sind diese Versuche einigermaßen gewesen. Diese Woche Marathonverhandlungen über den Inhalt des Gesetzentwurfs kam zu kein Einvernehmen über einige der Schlüsselelemente der Gesetzgebung zustande.
Die weltweit erste „humanoide Roboterfabrik“ steht kurz vor der Eröffnung. Was zum Teufel soll das bedeuten? In Salem, Oregon, steht die Eröffnung einer neuen Fabrik bevor, deren einziger Zweck die Herstellung „humanoider Roboter“ ist. Was genau bedeutet das? Es bedeutet, dass die Lagerarbeiter von Amazon schon bald ihre Arbeit verlieren könnten. Tatsächlich hat Axios Berichte das die fraglichen Roboter wurden entwickelt, um „Amazon und anderen riesigen Unternehmen beim gefährlichen Transportieren, Heben und Bewegen zu helfen“. Das Unternehmen hinter den Bots, Agility Robots, wird seine Anlage irgendwann nächstes Jahr eröffnen und plant, jährlich etwa 10.000 Roboter zu produzieren.