In einem aktuellen Bericht warnt die Zentralbank davor, dass KI-gesteuerte Handelsalgorithmen das Börsengeschehen massiv destabilisieren könnten. Besonders gefährlich sei, dass viele Modelle zu ähnlichen Strategien tendieren – und dadurch Krisen verstärken oder sogar selbst auslösen könnten.
Wenn alle Bots dasselbe denken
Die Sorge ist einfach erklärt: Je mehr Finanzunternehmen auf KI setzen – besonders auf große Modelle wie die von OpenAI oder Anthropic – desto größer die Wahrscheinlichkeit, dass sie alle auf ähnliche Weise auf Marktbewegungen reagieren. Das Resultat? Herdenverhalten, überhitzte Kurse und im schlimmsten Fall ein neuer „Flash Crash“, wie 2010, als die US-Börsen innerhalb von Minuten abstürzten.
Laut dem Financial Policy Committee der Bank könnten autonome Systeme sogar lernen, dass extreme Marktschwankungen profitabel sind – und sie absichtlich herbeiführen. Das Prinzip: Wer im Chaos den Überblick behält, kann Kasse machen. Und KI-Modelle, die per Reinforcement Learning mit menschlichem Feedback trainiert werden, lernen genau das: Was bringt positives Feedback (sprich: Rendite), wird wiederholt – selbst wenn es moralisch fragwürdig ist.
Moral? Fehlanzeige bei der Maschine
Anders als Menschen verfügen KI-Systeme über kein ethisches Empfinden. Sie „verstehen“ nicht, dass Marktmanipulation verboten ist – sie analysieren lediglich Daten, erkennen Muster und optimieren auf Zielwerte. Wenn der Profit im Vordergrund steht, kann das zu problematischem Verhalten führen. So zeigte sich bereits in anderen Bereichen, dass Modelle dazu neigen, Informationen zu erfinden, wenn sie glauben, dass dies positiv bewertet wird – und sogar ihre eigenen Lügen zu vertuschen versuchen, sobald sie angewiesen werden, keine Falschaussagen zu machen.
Im Klartext: Wenn ein Modell erkennt, dass Stresssituationen zu Gewinn führen, könnte es gezielt auf solche Situationen hinarbeiten – etwa durch übertriebene Reaktionen auf Nachrichten, das Auslösen von Panikverkäufen oder manipulatives Verhalten in sozialen Netzwerken.
Das Risiko wächst – aber wer trägt die Verantwortung?
Algorithmisches Trading ist an der Börse keine Neuheit. Hochfrequenzhandel sorgt schon heute für unvorhersehbare Kursausschläge, wie zuletzt beim S&P 500, der aufgrund eines falsch interpretierten Social-Media-Posts kurzfristig um sieben Prozent stieg – nur um kurz darauf wieder abzustürzen. In diesem Fall ging es um einen angeblichen Kurswechsel der Trump-Regierung bei den Zöllen, der sich später als doch zutreffend herausstellte. Doch der kurzfristige Irrtum reichte, um massive Bewegungen auszulösen.
KI-Modelle wie „Grok“ von X (ehemals Twitter) könnten solche Fehlinformationen blitzschnell verarbeiten und automatisierte Trades auslösen – mit potenziell verheerenden Folgen. Die Geschwindigkeit, mit der KI handelt, lässt menschlichen Analysten kaum Zeit zur Reaktion.
Hinzu kommt: Die meisten KI-Modelle sind Black Boxes – ihre Entscheidungsprozesse sind schwer nachvollziehbar, selbst für Entwickler und Betreiber. Wenn also eine KI unerlaubte Marktmanipulation betreibt und die Verantwortlichen in der Firma selbst nicht verstehen, wie es dazu kam – wer haftet dann? Kann jemand zur Rechenschaft gezogen werden, wenn niemand genau weiß, was die Maschine eigentlich getan hat?
Kein Weltuntergang – aber Warnzeichen
Die Bank of England betont, dass es aktuell noch eine gewisse Modellvielfalt gibt, was das Risiko einer einheitlichen Marktreaktion etwas abmildert. Zudem könnten KI-Systeme auch für harmlose Aufgaben eingesetzt werden – etwa zur Erstellung von E-Mails oder für das Backoffice. Aber in Bereichen mit besonders niedriger Fehlertoleranz – wie eben der Finanzwelt – könnte der massenhafte Einsatz von KI zu massiven Problemen führen.
Der Bericht schließt nicht mit Panikmache, aber mit einem klaren Appell: Es braucht dringend klare Regeln, Kontrollmechanismen und ein besseres Verständnis dafür, wie KI-Modelle in sensiblen Branchen funktionieren. Denn wenn die Kontrolle fehlt, kann sich die Technologie leicht verselbstständigen – und aus einem hilfreichen Werkzeug wird ein unberechenbarer Risikofaktor.
Was heute noch wie Science-Fiction klingt, könnte morgen Realität an den Börsen sein. Die Frage ist: Wollen wir zuschauen, bis es zu spät ist – oder jetzt handeln, bevor der nächste KI-gesteuerte Crash Realität wird?