OpenAI hat am Freitag ein neues KI-basiertes Tool zum Klonen von Audio mit dem Namen Voice Engine angekündigt. Obwohl das Unternehmen natürlich stolz auf das Potenzial dieser Technologie ist und anpreist , könnte sie dazu genutzt werden, um Kindern das Lesen zu unterstützen und denen eine Stimme zu geben die ihre Stimme verloren haben, ist OpenAI offensichtlich sehr nervös darüber beunruhigt, wie dies missbraucht werden könnte. Und das aus gutem Grund.
„OpenAI ist bestrebt, eine sichere und allgemein vorteilhafte KI zu entwickeln“, sagte das Unternehmen am Freitag in einer Erklärung und brachte damit seine Anliegen klar zum Ausdruck das sehr erster Satz.
Voice Engine verwendet im Wesentlichen dieselbe Technologie , die hinter seiner Text-to-Speech-API und ChatGPT Voice steckt, bei dieser Anwendung der Technologie geht allerdings darauf hin, eine Stimme zu klonen, anstatt etwas mit dem Ton und der Betonung eines Fremden laut vorzulesen. OpenAI weist darauf hin, dass seine Technologie insofern außergewöhnlich ist, als sie nur eine 15 sekündige Probe benötigt, um „emotionale und realistische Stimmen zu erzeugen“.
„Heute teilen wir vorläufige Erkenntnisse und Ergebnisse aus einer kleinen Vorschau eines Modells namens Voice Engine, das Texteingaben und eine einzelne 15-sekündige Audioprobe verwendet, um natürlich klingende Sprache zu generieren, die dem ursprünglichen Sprecher sehr ähnlich ist“, schrieb das Unternehmen.
Es ist nicht klar, welche Art von Trainingsdaten für den Aufbau von Voice Engine verwendet wurden, ein Schwachpunkt für beschuldigte KI-Unternehmen Unternehmen wie OpenAI argumentieren, dass ihre Trainingsmethoden als „faire Nutzung“ gelten US-amerikanisches Urheberrecht, aber eine Reihe von Rechteinhabern haben geklagt und sich darüber beschwert, dass sie für ihre Arbeit nicht entschädigt wurden.
Auf der Website von OpenAI gibt es Beispiel-Audioclips, die durch Voice Engine eingespeist wurden. Sie sind ziemlich verdammt beeindruckend.Die Möglichkeit, die Sprache, die jemand spricht, zu ändern, ist auch sehr cool. Man kann es aber noch nicht selbst ausprobieren .
Es gibt bereits eine Reihe von Tools zum Klonen von Stimmen, z ElevenLabs, und Übersetzer wie Respeecher. Aber OpenAI ist zu einem Giganten geworden, seit es ChatGPT Ende 2022 erst öffentlich eingeführt wurde. Und sobald Voice Engine zu einem öffentlich verfügbaren Produkt gemacht ist (ein Veröffentlichungstermin ist noch nicht bekannt), könnte es die Schleusen für alle möglichen neuen Missbräuche öffnen, von denen wir nicht auch geträumt haben.
In der Erklärung von OpenAI vom Freitag hieß es: „Aufgrund des Potenzials für synthetische Stimmen gehen wir bei einer umfassenderen Veröffentlichung vorsichtig und fundiert vor „Missbrauch“ und unterstreicht damit die Sorgen, mit denen jedes große Unternehmen heute angesichts dieser Art von KI-Technologie konfrontiert ist
Ein besonders besorgniserregendes Beispiel dafür, dass jemand KI-Stimmenklonen für schändliche Zwecke nutzte, ereignete sich Anfang dieses Jahres mithilfe von Die Stimme von Präsident Joe Biden.Steve Kramer, der für Dean Phillips, den Präsidentschaftskandidaten der Demokraten, gearbeitet hat, hat Bidens Stimme geklont, um eine Botschaft zu erschaffen, die besagt, dass die Menschen das nicht tun sollten Ich habe mir die Mühe gemacht, bei den Vorwahlen in New Hampshire abzustimmen. Kramer nutzte das AI-Sprachtool von ElevenLabs und schaffte es in „weniger als 30 Minuten“. Senden der Robocall-Nachricht an ungefähr 5.000 Menschen, nach Angaben der Washington Post.
„Wir hoffen, einen Dialog über den verantwortungsvollen Einsatz synthetischer Stimmen und darüber, wie sich die Gesellschaft an diese neuen Möglichkeiten anpassen kann, zu starten.“ In der Erklärung von OpenAI heißt es: „Basierend auf diesen Gesprächen und den Ergebnissen dieser kleinen Tests werden wir eine fundiertere Entscheidung treffen.“ darüber, ob und wie diese Technologie im großen Maßstab eingesetzt werden kann.“
Das ist natürlich das zweischneidige Schwert aller neuen Technologien. Betrüger werden immer einen Weg finden, neue Tools auszunutzen Den Leuten ihr hart verdientes Geld abpressen. Aber Sie müssen keine gefälschten, von der KI erzeugten Stimmen verwenden, um die Leute zu betrügen. Wie wir Anfang dieser Woche wurde über den neuesten Krypto-Betrug berichtet Echte Schauspieler auf Fiverr engagiert ein Skript zu lesen, das dabei hilft, ihren Betrug als authentisch zu verkaufen.