Zum Inhalt springen
Tech

Die Zukunft der KI hängt mit dem kalifornischen Gesetz auf dem Spiel

Hier finden Sie alles, was Sie über Kaliforniens neuen KI-Gesetzentwurf und den Kampf zur Beschleunigung oder Verlangsamung der KI wissen müssen, der auf die Politik übergreift.
Von

Lesezeit 7 Minuten

Ein kalifornischer Gesetzentwurf, der versucht, große KI-Modelle zu regulieren, führt zu einer dramatischen Pattsituation über die Zukunft der KI. Seit Jahren wird die KI unterteilt in „accel“ und „decel“. Die Accels wollen einen raschen Fortschritt der KI – einen schnellen Prozess – der Dinge zerstört – während die Decels eine Verlangsamung der KI-Entwicklung zum Wohl der Menschheit wollen wollen. Der Kampf rückte ins nationale Rampenlicht, als OpenAI-Vorstand hat Sam Altman kurzzeitig abgesetzt, von denen viele seitdem Abspaltung vom Startup im Namen der KI-Sicherheit. Jetzt macht ein kalifornischer Gesetzentwurf diesen Kampf zu einem politischen Kampf.

Was ist SB1047?

SB 1047 ist ein Gesetzentwurf des Bundesstaates Kalifornien, der große Anbieter von KI-Modellen – wie Meta, OpenAI, Anthropic und Mistral – für die potenziell katastrophalen Gefahren ihrer KI-Systeme haftbar machen würde. Der Gesetzentwurf von Staatssenator Scott Wiener wurde im Mai vom Senat des Bundesstaates verabschiedet und eine weitere große Hürde genommen diese Woche wird es Gesetz werden.

Warum sollte mich das interessieren?

Es könnte sich um die erste wirkliche KI-Regulierung in den USA mit Biss handeln, und sie findet derzeit in Kalifornien statt, wo alle großen KI-Unternehmen ansässig sind.

Wiener beschreibt den Gesetzentwurf als „klare, vorhersehbare, vernünftige Sicherheitsstandards für Entwickler der größten und leistungsstärksten KI-Systeme“ festlegen. Allerdings sieht das nicht jeder so. Viele im Silicon Valley schlagen Alarm, dass dieses Gesetz das KI-Zeitalter beenden wird, bevor es beginnt.

Was bewirkt SB 1047 eigentlich ?

SB 1047 macht Anbieter von KI-Modellen für „kritische Schäden“ haftbar und weist insbesondere auf ihre Rolle bei der Verursachung von „Massenunfällen mit Opfern“ hin. So abwegig das auch erscheinen mag, ist das große Bedeutung, da Silicon Valley sich in der Historie der größten Verantwortung für seine Schäden entzogen hat. Der Gesetzentwurf ermächtigt den Generalstaatsanwalt von Kalifornien, rechtlich gegen diese Unternehmen vorzugehen, wenn ein ihrer KI-Modelle den Kaliforniern schweren Schaden zufügt.

SB 1047 enthält auch eine „Abschaltungs“-Bestimmung, die KI-Unternehmen de facto dazu verpflichtet, für den Notfall einen Kill-Switch für ein KI-Modell zu schaffen.

Der Gesetzentwurf sieht außerdem die Einrichtung einer „Frontier Model Division“ innerhalb der kalifornischen Government Operations Agency vor. Diese Gruppe soll den Anbietern innovativer KI-Modelle „Leitlinien“ zu den Sicherheitsstandards geben, die jedes Unternehmen einhalten muss. Wenn Unternehmen die Empfehlungen der Division nicht berücksichtigen, können sie verklagt werden und mit zivilrechtlichen Strafen rechnen.

Wer unterstützt diesen Gesetzentwurf?

Neben Senator Wiener haben auch zwei prominente KI-Forscher, Geoffrey Hinton und Yoshua Bengio, die manchmal als „Paten der KI“ bezeichnet werden, diesen Gesetzentwurf mitunterzeichnet. Diese beiden haben sich durch ihre Warnungen vor den Gefahren der KI hervorgetan.

Im weiteren Sinne steht dieser Gesetzentwurf im Einklang mit der Decel-Perspektive, die davon ausgeht, dass KI mit relativ hoher Wahrscheinlichkeit das Aussterben der Menschheit verursacht und daher entsprechend reguliert werden sollte. Die meisten dieser Leute sind KI-Forscher und versuchen nicht aktiv, ein KI-Produkt zu einer Ware zu machen, weil sie, wie Sie wissen, glauben, dass es das Aussterben der Menschheit verursachen könnte.

Der Gesetzentwurf wird vom Center for AI Safety unterstützt, das von Dan Hendrycks geleitet wird. Seine Gruppe veröffentlichte einen offener Brief im Mai 2023 Darin heißt es, dass das durch KI bedingte Risiko des Aussterbens der Menschheit ebenso ernst genommen werden sollte wie Atomkriege oder Pandemien. Unterzeichnet wurde es von Sam Altman, Bill Gates, Grimes und zahlreichen einflussreichen Leuten aus der Technikbranche. Sie sind eine einflussreiche Gruppe und ein wichtiger Akteur bei der Förderung dieses Gesetzentwurfs.

Im März 2023 forderten die Decels eine „Pause“ für alle KI-Entwicklungen um eine Sicherheitsinfrastruktur zu implementieren. Auch es klingt extrem, gibt es in der KI-Community viele schlaue Leute die wirklich glauben, dass KI die Menschheit auslöschen könnte. Ihre Idee ist : Wenn auch die Wahrscheinlichkeit besteht, dass KI die Menschheit auslöschen könnte, sollten wir sie vor allem streng regulieren.

Das macht Sinn. Wer ist also gegen SB 1047?

Wenn Sie auf X sind, haben Sie das Gefühl, dass jeder im Silicon Valley gegen SB 1047 ist. Risikokapitalgeber, Startup-Gründer, KI-Forscher und führende Köpfe der Open-Source-KI-Community hassen diesen Gesetzesentwurf. Ich würde diese Leute im Allgemeinen als Accels einstufen, oder zumindest ist das ihre Meinung zu diesem Thema. Viele von ihnen sind im KI-Geschäft tätig, aber einige sind auch Forscher.

Die allgemeine Stimmung ist , dass SB 1047 Anbieter von KI-Modellen wie Meta und Mistral dazu zwingen könnte, ihre Open-Source-Bemühungen zu reduzieren oder ganz einzustellen. Diese Gesetzesvorlage macht sie für die Verwendung ihrer KI-Modelle durch böswillige Akteure verantwortlich. Diese Verantwortung können diese Unternehmen jedoch nicht übernehmen, weil es schwierig ist, generative KI einzuschränken und die offene Natur der Produkte so offen ist.

„Es wird das Open-Source-Startup-Ökosystem komplett töten, zerstören und verlangsamen“, sagte Anjney Midha, A16Z-Generalpartner und Vorstandsmitglied von Mistral, in einem Interview mit Gizmodo. „Dieser Gesetzentwurf ist so, als würde man versuchen, den Fortschritt der Druckerpresse einzudämmen, anstatt sich darauf zu konzentrieren, wo er hingehört, nämlich auf die Verwendungsmöglichkeiten der Druckerpresse.“

„Open Source ist unsere beste Hoffnung, die Nase vorn zu behalten, indem wir transparente Sicherheitstests für neue Modelle zusammenführen, statt ein paar mächtigen Unternehmen im Geheimen die Kontrolle über die KI zu überlassen“, sagte Ion Stoica, Professor für Informatik in Berkeley und geschäftsführender Vorsitzender von Databricks, in einem Interview.

Midha und Stoica sind nicht die einzigen, die die Regulierung von KI als existentiell für die Branche ansehen. Open-Source-KI hat die florierendste Startup-Szene im Silicon Valley seit Jahren hervorgebracht. Gegner von SB 1047 sagen, dass der Gesetzentwurf den abgeschotteten etablierten Big-Tech-Unternehmen zugutekommen wird, statt diesem florierenden, offenen Ökosystem.`

„Ich sehe das wirklich als eine Möglichkeit, die Open-Source-KI-Entwicklung zu behindern, als Teil einer umfassenderen Strategie, KI zu verlangsamen“, sagte Jeremy Nixon, Gründer des AGI House, das als Knotenpunkt für die Open-Source-KI-Hackathons im Silicon Valley dient. „Der Gesetzentwurf stammt von einer Community, die sehr daran interessiert ist, KI generell anzuhalten.“

Das klingt wirklich technisch. Können die Gesetzgeber das alles richtig hinbekommen?

Es ist absolut technisch, und das hat einige Probleme geschaffen. SB 1047 gilt nur für „große“ Grenzmodelle, aber wie groß ist groß? Der Gesetzentwurf definiert es als KI-Modelle, die mit 10^26 FLOPS trainiert werden und deren Training mehr als 100 Millionen Dollar kostet, eine spezifische und sehr große große Menge an Rechenleistung nach heutigen Maßstäben. Das Problem besteht darin, dass die KI sehr schnell wächst und die hochmodernen Modelle aus dem Jahr 2023 im Vergleich zu den Maßstäben von 2024 winzig aussehen. In einem Bereich, der sich so schnell entwickelt, funktioniert es nicht gut, eine Flagge in den Sand zu stecken.

Es ist zudem nicht klar, ob es überhaupt möglich ist, Fehlverhalten von KI-Systemen vollständig zu verhindern. Die Wahrheit ist, dass wir nicht viel darüber wissen, wie LLMs funktionieren, und dass bei den derzeit führenden KI-Modellen von OpenAI, Anthropic und Google ständig Jailbreaks durchgeführt werden. Aus diesem Grund sind einige Forscher der Meinung, dass sich die Regulierungsbehörden auf die Übeltäter und nicht auf die Modellanbieter konzentrieren sollten.

„Bei KI muss man den Anwendungsfall, die Aktion, regeln und nicht die Modelle selbst“, sagte Ravid Shwartz Ziv, ein Assistenzprofessor, der zusammen mit Yann Lecunn an der NYU KI studiert, in einem Interview. „Die besten Forscher der Welt können unendlich viel Zeit mit einem KI-Modell verbringen und trotzdem sind Leute in der Lage, es zu jailbreaken.“

Ein weiterer technischer Aspekt dieses Gesetzentwurfs betrifft Open-Source-KI-Modelle. Wenn ein Startup Meta’s Llama 3, eines der beliebtesten Open-Source-KI-Modelle, übernimmt und es so optimiert, dass es etwas Gefährliches wird, ist Meta dann immer noch für dieses KI-Modell verantwortlich?

Im Moment erreicht Metas Llama nicht die Anforderungen an ein „abgedecktes Modell“, aber das wird in Zukunft wahrscheinlich der Fall sein. Nach diesem Gesetzentwurf könnte Meta sicherlich zur Verantwortung gezogen werden. Es besteht jedoch eine Einschränkung: Wenn ein Entwickler mehr als 25 % der Kosten für die Schulung von Llama 3 für die Feinabstimmung aufwendet, ist dieser Entwickler nun verantwortlich. Dennoch halten Gegner des Gesetzentwurfs dies nach wie vor für unfair und nicht für den richtigen Ansatz.

Kurze Frage: Ist KI tatsächlich Redefreiheit?

Unklar. Viele in der KI-Community betrachten Open-Source-KI als eine Art freie Meinungsäußerung (deshalb bezeichnete Midha sie als Druckerpresse). Die Prämisse ist, dass der einem KI-Modell zugrunde liegende Code eine Ausdrucksform ist und die Modellausgaben ebenfalls Ausdrücke sind. Code fiel historisch gesehen in mehreren Fällen unter den ersten Verfassungszusatz.

Drei Rechtsprofessoren argumentierten in ein Lawfare-Artikel dass KI-Modelle nicht genau freie Meinungsäußerung begünstigen. Zum einen sagen sie zwar die Gewichte, aus denen ein KI-Modell entsteht, nicht von Menschen geschrieben werden, sondern durch umfangreiche Maschinenlernvorgänge entwickelt werden. Menschen können sie kaum einmal lesen.

Was die Ergebnisse bahnbrechender KI-Modelle betrifft, unterscheiden sich diese Systeme ein wenig von Social-Media-Algorithmen, bei denen in der Vergangenheit davon ausgegangen wurde, dass sie unter den ersten Verfassungszusatz fallen. KI-Modelle vertreten nicht unbedingt einen Standpunkt, sie sagen viele Dinge aus. Aus diesem Grund sagen diese Rechtsprofessoren, dass SB 1047 möglicherweise nicht gegen den ersten Verfassungszusatz verstößt.

Also, was kommt als Nächstes?

Der Gesetzentwurf steuert auf die rasch näher rückende Abstimmung im August zu, die ihn an den Schreibtisch von Gouverneur Gavin Newsom schicken würde. Bis dahin müssen noch einige wichtige Hürden genommen werden, und selbst dann könnte es sein, dass Newsom den Gesetzentwurf aufgrund des Drucks aus dem Silicon Valley nicht unterzeichnet. Eine große Technologiehandelsgruppe hat Newsom gerade einen Brief geschickt, in dem sie ihn auffordert, SB 1047 nicht zu unterzeichnen.

Allerdings möchte Newsom in Sachen KI möglicherweise einen Präzedenzfall für die Nation schaffen. Wenn SB 1047 in Kraft tritt, könnte dies die KI-Landschaft in Amerika radikal verändern.

Korrektur, 25. Juni: In einer früheren Version dieses Artikels wurde nicht definiert, was „kritische Schäden“ sind. Darüber wurde auch festgestellt, dass Metas Llama 3 betroffen sein könnte, das KI-Modell jedoch derzeit nicht groß genug ist. Es wird wahrscheinlich in Zukunft betroffen sein. Schließlich wurde die Frontier Model Division zur Government Operations Agency von Kalifornien verschoben, nicht zum Department of Technology. Diese Gruppe hat derzeit keine Durchsetzungsbefugnis.

Dieser Inhalt wurde automatisch aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatischen Übersetzung kann es zu geringfügigen Abweichungen kommen.Für die Originalversion, klicken Sie hier.

Diese Geschichte teilen

Verwandte Artikel