KI gefährlicher als Atomwaffen

Musk war maßgeblich an der Entwicklung generativer KI-Technologie beteiligt, zunächst als Großinvestor in OpenAI, dann aber als wichtiger Konkurrent des Entwicklers von ChatGPT. Oberflächlich betrachtet hat Musk stets vor den Gefahren der KI gewarnt, während er gleichzeitig versuchte, sie zu entwickeln, was zu einer seltsamen Art kognitiver Dissonanz führte.
„Lesenswert ist „Superintelligence“ von Bostrom. Wir müssen mit KI supervorsichtig sein. Sie ist möglicherweise gefährlicher als Atomwaffen“, twitterte Musk in August 2014.
Viele Leute wiesen damals darauf hin, dass es ein ziemlich absurde Aussage, selbst wenn unsere Gehirne alles von dystopischer Science-Fiction vergiftet wurden. Und es ist leicht zu verstehen, wie die Menschen aufgrund der sensationslüsternen Medienberichterstattung immer noch über diese Dinge beunruhigt sind.
Große Sprachmodelle haben den Menschen neue Türen in der Welt der Chatbots geöffnet, und Musk ist davon offensichtlich beeindruckt. Er hat mit Grok on X seine eigene Version herausgebracht und sein eigenes KI-Unternehmen mit Sitz in Nevada gegründet. Tools wie ChatGPT, Grok und Gemini ermöglichen es den Menschen, Fragen zu stellen und eine Antwort zu erhalten, die bemerkenswert menschlich klingt. Das schmutzige kleine Geheimnis dieses KI-Hype-Zyklus besteht jedoch darin, dass, obwohl es so klingt, als würden sie Logik und Vernunft auf verschiedene Fragen anwenden, dies unter der Haube nicht der Fall ist.
Diese LLMs funktionieren als prädiktive Textmaschinen. Sie funktionieren, indem sie Wörter mit einer unglaublich schnellen Geschwindigkeit ausspucken, die uns glauben machen kann, dass hier wirklich „gedacht“ wird. Aber wenn Sie die Chatbots fragen, unlogische Fragen Sie haben noch nie davon gehört, kann klar werden, dass sie nicht in der Lage sind, sondern auch nicht tiefgründig denken.
Es ist durchaus möglich, dass KI in Zukunft sehr gefährlich sein könnte, aber die Vorstellung, dass dies daran liegt, dass Skynet gerade erst in Sicht ist, hat einfach nichts mit der Realität zu tun. Die Gefahr bei KI besteht darin, dass die Menschen glauben, sie könne noch viel mehr Dinge tun, als sie tatsächlich leisten kann.