Zum Inhalt springen
Tech

Droht eine Gefahr? Google streicht sein Versprechen, keine AI-Waffen zu entwickeln

Das Unternehmen ändert seine AI-Grundsätze und entfernt die explizite Einschränkung für militärische Zwecke. Was bedeutet das?
Von Thomas Handley Übersetzt von

Lesezeit 2 Minuten

Google hat seine Prinzipien für künstliche Intelligenz aktualisiert – und eine der auffälligsten Änderungen ist der Wegfall der Verpflichtung, keine AI-gestützten Waffen zu entwickeln. Bisher enthielt das Dokument eine spezifische Passage, die Anwendungen ausschloss, darunter Waffen- und Überwachungstechnologien, die gegen internationale Standards verstoßen.

Diese Änderung kommt zu einem entscheidenden Zeitpunkt, da der Wettbewerb im Bereich AI intensiver wird und andere Unternehmen wie OpenAI ihre Richtlinien ebenfalls angepasst haben, bevor sie Verträge mit dem Pentagon abschlossen.

Google passt seinen AI-Ansatz an

Google2
© DWilliam

In seinem früheren Dokument erklärte Google ausdrücklich, dass es keine AI-Anwendungen für folgende Zwecke entwickeln würde:

  • Technologien, die Menschen Schaden zufügen sollen.
  • Waffensysteme, bei denen AI der Hauptzweck ist.
  • Überwachungstechnologien, die internationale Normen verletzen.
  • Anwendungen, die gegen internationales Recht oder Menschenrechte verstoßen.

In der neuen Version fehlt diese Passage jedoch komplett. Stattdessen veröffentlichte das Unternehmen eine Erklärung, unterzeichnet von James Manyika (SVP von Google) und Demis Hassabis (CEO von Google DeepMind), in der sie ihr Engagement für die verantwortungsvolle Entwicklung von AI betonen – allerdings ohne eine explizite Ablehnung von Waffentechnologie.

Warum ist diese Änderung bedeutsam?

Obwohl Google keine neuen Verteidigungsverträge angekündigt hat, könnte diese Anpassung der Unternehmenspolitik zukünftige Kooperationen mit dem Militär ermöglichen.

Ein wichtiger Präzedenzfall ist Projekt Maven, eine Initiative des Pentagon, an der Google beteiligt war. Dabei wurde AI genutzt, um Drohnenbilder zu analysieren und Ziele in Konfliktgebieten zu identifizieren. Nach massiven Protesten der Belegschaft entschied sich Google 2018, den Vertrag nicht zu verlängern.

Jetzt, da es keine klare Einschränkung in den Unternehmensrichtlinien mehr gibt, könnte Google seine Haltung gegenüber der Verteidigungsindustrie überdenken – in einer Zeit, in der Regierungen und Militärs verstärkt auf AI setzen.

Was bedeutet das für die Zukunft militärischer AI?

Der Einsatz von AI für militärische Zwecke ist ein kontroverses Thema. Während einige darin eine Möglichkeit sehen, Sicherheit und Verteidigung zu verbessern, warnen andere vor den Risiken der Automatisierung von Angriffssystemen und Überwachungstechnologien.

Googles Entscheidung, seine Haltung zu ändern, spiegelt einen breiteren Wandel in der Technologiebranche wider. Immer mehr Unternehmen sind bereit, mit Regierungen an Verteidigungsprojekten zu arbeiten. Es bleibt abzuwarten, ob Google in den kommenden Monaten konkrete Verträge bekannt gibt – oder ob, wie schon bei Projekt Maven, erneut interner Widerstand aufkommt.

 

Diese Geschichte teilen

Verwandte Artikel