KI an der Börse: Es droht der Kontrollverlust

KI wird bereits an der Börse eingesetzt. Bald könnten ChatGPT und Co. dort ein regelrechtes Eigenleben führen.

In Pocket speichern vorlesen Druckansicht 109 Kommentare lesen

(Bild: Vintage Tone/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Nils Jacobsen
Inhaltsverzeichnis

Elon Musk war mal wieder in Hochform. "Es wird der Punkt kommen, an dem keine Jobs mehr nötig sind", erklärte der reichste Mann der Welt in der vergangenen Woche in einem Gespräch beim "AI Safety Summit" mit dem britischen Premierminister Rishi Sunak. Man könne zwar weiter für sein persönliches Vergnügen einen Beruf ausüben, aber benötigt werde die Arbeitskraft nicht mehr, weil künstliche Intelligenz (KI) überlegen sei. Musk, der für seine unverblümten Worte zu der Boombranche bekannt ist, nannte KI die zerstörerischste Kraft in der Menschheitsgeschichte.

Während vor allem die kreative Branche in diesem Jahr mit dem Erscheinen von ChatGPT, DALL-E, Midjourney & Co. spürt, dass Text und Bild in naher Zukunft effektiver vom Computer geschrieben und gestaltet werden könnte, so könnte auch die Finanzbranche bald von den disruptiven Kräften der künstlichen Intelligenz betroffen sein. Bereits jetzt sorgt ChatGPT durch vermeintliche bessere Aktientipps als von Investmentprofis für Schlagzeilen, obwohl OpenAIs Chatbot lange Zeit auf dem Informationsstand bis September 2021 limitiert war.

Grundsätzlich wird künstliche Intelligenz seit vielen Jahren an den Kapitalmärkten eingesetzt. Sie kann etwa verwendet werden, um Trends (Chartmuster von Aktien) zu erkennen und Prognosen in der Geschäfts- und Aktienentwicklung zu erstellen, obwohl der Großteil des Handels heute weiter von leistungsstarken Computern unter menschlicher Aufsicht in den Handelsabteilungen der Investmentfonds und Banken durchgeführt wird.

Oder auch nicht. Bereits in den vergangenen Dekaden gab es immer wieder Fälle, in denen von Algorithmen gesteuerte Kauf- oder Verkaufsprogramme an den Finanzmärkten für Turbulenzen gesorgt haben – etwa im Mai 2010, als der sogenannte "Flashcrash" die Finanzmärkte rund um den Globus erschütterte. Innerhalb einer halben Stunde fiel etwa der US-Leitindex Dow Jones Industrial Average (DJIA) um rund 1000 Punkte, was einem Rückgang von fast 9 Prozent entsprach. Es war einer der schnellsten und dramatischsten Kurseinbrüche in der Geschichte der US-Börsen, auf den jedoch eine fast ebenso rasante Erholung erfolgte. Bis heute ist unklar, was den Flash Crash ausgelöst hat. Eine häufig genannte Ursache ist der Einsatz von Hochfrequenzhandelsalgorithmen, die aufgrund von Marktvolatilität und einer großen Anzahl von Aufträgen in kürzester Zeit massive Verkäufe auslösten.

Doch das System ist nicht nur fehleranfällig – es kann theoretisch durch künstliche Intelligenz auch immer effektiver manipuliert werden, das wurde etwa auf dem "AI Safety Summit" erörtert. Wie neue Forschungsergebnisse nahelegen, hat künstliche Intelligenz nämlich inzwischen die Fähigkeit, illegale Finanzgeschäfte durchzuführen und sie zu vertuschen, wie die Frontier AI Taskforce der britischen Regierung zusammen mit Apollo Research auf dem AI-Event von einem Research-Projekt gezeigt hat.

In der Vorführung nutzte ein öffentlich zugängliches GPT-4-Modell erfundene Insider-Informationen (die Verwendung vertraulicher Unternehmensinformationen für Investmententscheidungen ist verboten), um einen illegalen Aktienkauf ohne Mitteilung an das betroffene Unternehmen zu tätigen. Auf die Nachfrage, ob Insiderhandel betrieben wurde, verneinte die künstliche Intelligenz. Der Chat-Bot hat demnach die Fähigkeit, zu lügen.

"Dies ist eine Demonstration eines echten KI-Modells, das seine Benutzer ohne Anweisung selbst täuscht", erklärte Apollo Research die Simulation in einem Bericht der BBC. "Die Tatsache, dass so etwas existiert, ist offensichtlich sehr schlecht", führt Marius Hobbhahn, CEO von Apollo Research, weiter aus. In dem Bericht warnen die Researcher: "Immer autonomere und leistungsfähigere KIs, die menschliche Aufseher täuschen, könnten zu einem Verlust der menschlichen Kontrolle führen."

Hobbhahn erklärte weiter, dass die aktuellen Bot-Modelle noch nicht mächtig genug seien, um "in bedeutender Weise täuschend zu sein, aber es ist nicht mehr weit von den aktuellen Modellen zu denjenigen, die mich besorgt machen, bei denen plötzlich ein täuschendes KI-Modell etwas bedeuten würde", sagte der Apollo Research-CEO. Hobbhahn argumentiert dem Business Insider gegenüber weiter, dass deshalb Kontrollmechanismen vorhanden sein müssten, um zu verhindern, dass ähnliche Szenarien in der realen (Finanz-)Welt aufträten. Ob sich künstliche Intelligenz langfristig in der Form kontrollieren und bändigen lässt, ist die Multi-Billionen-Dollar-Frage, die nicht nur Elon Musk nachts nicht schlafen lässt.

(emw)