Zum Inhalt springen
News

Eric Schmidt schlägt vor, dass Länder sich auf gegenseitige garantierte AI-Pannen (MAIM) einlassen könnten

Die USA sollten kein eigenes Manhattan-Projekt für KI schaffen, da ein solches Projekt Vergeltungsmaßnahmen von Gegnern einladen würde.
Von Thomas Maxwell Übersetzt von

Lesezeit 4 Minuten

Der ehemalige Google-CEO Eric Schmidt und der Scale AI-Gründer Alexandr Wang sind Co-Autoren eines neuen Papiers mit dem Titel „Superintelligence Strategy“, das vor der Schaffung eines Manhattan-Projekts für die sogenannte Künstliche Allgemeine Intelligenz (AGI) durch die US-Regierung warnt, da dies schnell außer Kontrolle geraten könnte. Das Wesentliche des Arguments ist, dass die Schaffung eines solchen Programms zu Vergeltung oder Sabotage durch Gegner führen würde, während Länder um die mächtigsten KI-Fähigkeiten auf dem Schlachtfeld wetteifern. Stattdessen sollte sich die USA darauf konzentrieren, Methoden wie Cyberangriffe zu entwickeln, die bedrohliche KI-Projekte deaktivieren könnten.

Risiken eines KI-Wettlaufs

Schmidt und Wang sind große Befürworter des Potenzials von KI, die Gesellschaft durch Anwendungen wie Arzneimittelentwicklung und Effizienz am Arbeitsplatz voranzubringen. Regierungen hingegen sehen darin die nächste Grenze der Verteidigung, und die beiden Branchenführer sind im Wesentlichen besorgt, dass Länder in einem Wettlauf enden werden, um Waffen mit zunehmend gefährlichem Potenzial zu schaffen. Ähnlich wie internationale Vereinbarungen die Entwicklung von Atomwaffen eingeschränkt haben, glauben Schmidt und Wang, dass die Nationalstaaten bei der KI-Entwicklung vorsichtig vorgehen sollten und sich nicht in einen Wettlauf um KI-gestützte Kampfmaschinen verwickeln lassen sollten.

Gleichzeitig bauen jedoch sowohl Schmidt als auch Wang KI-Produkte für den Verteidigungssektor. Schmidt’s Firma White Stork entwickelt autonome Drohnentechnologien, während Wang’s Scale AI diese Woche einen Vertrag mit dem Verteidigungsministerium unterzeichnet hat, um KI-„Agenten“ zu schaffen, die bei militärischer Planung und Operationen helfen können. Nachdem Silicon Valley jahrelang davon abgesehen hat, Technologien zu verkaufen, die im Krieg eingesetzt werden könnten, stehen sie jetzt patriotisch Schlange, um lukrative Verteidigungsverträge abzuschließen.

Alle Verteidigungsauftragnehmer haben einen Interessenkonflikt, kinetische Kriegsführung zu fördern, selbst wenn dies nicht moralisch gerechtfertigt ist. Andere Länder haben eigene militärisch-industrielle Komplexe, so die Überlegung, weshalb die USA ebenfalls einen aufrechterhalten müssen. Aber am Ende leiden und sterben unschuldige Menschen, während mächtige Leute Schach spielen.

Palmer Luckey, der Gründer des Verteidigungstechnologieunternehmens Anduril, hat argumentiert, dass KI-gestützte gezielte Drohnenangriffe sicherer seien als der Einsatz von Nuklearwaffen, die eine größere Auswirkungen haben könnten, oder das Platzieren von Landminen ohne Zielvorgaben. Und wenn andere Länder weiterhin KI-Waffen entwickeln, sollten wir die gleichen Fähigkeiten haben, um eine Abschreckung zu gewährleisten. Anduril hat der Ukraine Drohnen zur Verfügung gestellt, die russische Militärausrüstung hinter den feindlichen Linien anvisieren und angreifen können.

Die Werbung für Militärtechnologien

Anduril führte kürzlich eine Werbekampagne durch, die den einfachen Text „Work at Anduril.com“ zeigte, überzogen mit dem Wort „Don’t“ in riesigen, graffitiartig gesprühten Buchstaben, was anscheinend auf die Idee anspielt, dass das Arbeiten für den militärisch-industriellen Komplex jetzt die Gegenkultur ist.

Schmidt und Wang haben argumentiert, dass Menschen immer in den Entscheidungsprozess bei KI-gesteuerten Entscheidungen eingebunden bleiben sollten. Aber wie aktuelle Berichte gezeigt haben, verlässt sich das israelische Militär bereits auf fehlerhafte KI-Programme zur Treffen von tödlichen Entscheidungen.Drohnen sind seit langem ein umstrittenes Thema, da Kritiker sagen, dass Soldaten nachlässiger werden, wenn sie sich nicht direkt im Schussfeld befinden oder die Konsequenzen ihrer Handlungen nicht aus erster Hand sehen. KI zur Bilderkennung ist dafür bekannt, Fehler zu machen, und wir steuern schnell auf einen Punkt zu, an dem Killer-Drohnen hin und her fliegen und ungenaue Ziele treffen werden.

Das Papier von Schmidt und Wang trifft viele Annahmen, dass KI bald „superintelligent“ sein wird, fähig, die meisten Aufgaben genauso gut oder sogar besser als Menschen zu erledigen. Das ist eine große Annahme, da die fortschrittlichsten „denkenden“ Modelle weiterhin erhebliche Fehler produzieren und Unternehmen mit schlecht geschriebenen Bewerbungen überflutet werden, die von KI unterstützt werden. Diese Modelle sind grobe Nachahmungen von Menschen mit oft unvorhersehbarem und seltsamem Verhalten.

Schmidt und Wang verkaufen eine Vision der Welt und ihrer Lösungen. Wenn KI allmächtig und gefährlich werden soll, sollten Regierungen zu ihnen gehen und ihre Produkte kaufen, weil sie die verantwortlichen Akteure sind. In ähnlicher Weise wurde Sam Altman von OpenAI dafür kritisiert, große Ansprüche über die Risiken von KI zu erheben, was einige als Versuch werten, die Politik in Washington zu beeinflussen und Macht zu erlangen. Es ist ein bisschen so, als würde man sagen: „KI ist so mächtig, dass sie die Welt zerstören kann, aber wir haben eine sichere Version, die wir Ihnen gerne verkaufen.“

Schmidts Warnungen werden wahrscheinlich nicht viel Einfluss haben, da Präsident Trump die Richtlinien zur KI-Sicherheit aus der Biden-Ära fallen lässt und die USA dazu drängt, eine dominante Kraft im Bereich der KI zu werden. Im letzten November schlug eine Kongresskommission das Manhattan-Projekt für KI vor, vor dem Schmidt warnt, und da Personen wie Sam Altman und Elon Musk in Washington mehr Einfluss gewinnen, ist es leicht zu sehen, dass dies an Bedeutung gewinnt. Wenn sich das fortsetzt, warnt das Papier, könnten Länder wie China mit Maßnahmen retaliieren, wie etwa absichtliches Herabstufen von Modellen oder Angriffe auf physische Infrastrukturen. Es ist keine unbekannte Bedrohung, da China sich in bedeutende US-Technologieunternehmen wie Microsoft ein geschlichen hat und andere wie Russland angeblich Frachtschiffe nutzen, um unterseeische Glasfaserkabel zu schädigen. Natürlich würden wir das Gleiche gegen sie tun. Es ist alles gegenseitig.

Es ist unklar, wie die Welt zu irgendeiner Vereinbarung kommen könnte, um mit diesen Waffen aufzuhören. In diesem Sinne könnte die Idee, KI-Projekte zu sabotieren, um sich gegen sie zu verteidigen, eine gute Sache sein.

Diese Geschichte teilen

Verwandte Artikel