Counterfactuals: Mit komplexer Mathematik zu besseren Empfehlungsalgorithmen

Ein besseres Modell des Maschinellen Lernens soll die automatisierte Entscheidungsfindung in vielen IT-Bereichen verbessern – von der Gesundheit bis zur Musik.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Midjourney ML

Wie sich der KI-Bildgenerator Midjourney Maschinelles Lernen vorstellt.

(Bild: Erstellt von TR durch Midjourney.)

Lesezeit: 9 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Ein neuartiges Modell für Maschinelles Lernen (ML), das von einem Forscherteam des Musikstreamingdienstes Spotify entwickelt wurde, erfasst zum ersten Mal die komplexe Mathematik sogenannter Counterfactuals, zu Deutsch: Kontrafaktuale. Dabei handelt es sich um eine Technik, mit der sich die Ursachen vergangener Ereignisse ermitteln und die Auswirkungen künftiger Ereignisse vorhersagen lassen soll.

Das ML-Modell, das Anfang des Jahres im Journal "Nature Machine Intelligence" beschrieben wurde, könnte die Genauigkeit automatisierter Entscheidungsfindung – insbesondere bei personalisierten Empfehlungen – in einer Reihe von Anwendungen von Musikdiensten über die Finanzbranche bis hin zum Gesundheitswesen verbessern.

Der Grundgedanke hinter Counterfactuals ist die Frage, was in einer bestimmten Situation passiert wäre, wenn bestimmte Parameter sich geändert hätten. Praktisch ist dies so, als würde man die Welt "zurückspulen", ein paar entscheidende Details ändern und dann auf Wiedergabe drücken, um zu sehen, was jetzt passiert. Wenn man die richtigen Einstellungen vornimmt, lässt sich so eine echte Kausalität von Korrelation und Zufall unterscheiden.

"Das Verständnis von Ursache und Wirkung ist sehr wichtig für die Entscheidungsfindung", sagt Ciaran Gilligan-Lee, Leiter des Causal Inference Research Lab bei Spotify, der das Modell mitentwickelt hat. "Man will verstehen, welche Auswirkungen eine Entscheidung, die man aktuell trifft, auf die Zukunft hat."

Im Fall eines Musikdienstes könnte das bedeuten, wie man sich entscheidet, welche Lieder man hören möchte oder wann es sinnvoll ist, dass ein Künstler ein neues Album herausbringt. Spotify verwendet die Technik derzeit noch nicht, sagt Gilligan-Lee. "Aber sie könnte bei der Beantwortung von Fragen helfen, mit denen wir uns jeden Tag beschäftigen." Counterfactuals sind intuitiv. Menschen machen sich oft ein Bild von der Welt, indem sie sich vorstellen, wie die Dinge gelaufen wären, wenn dies statt jenem passiert wäre. Mathematisch ist diese Abbildung aber monströs.

"Counterfactuals sind sehr seltsam anmutende statistische Objekte", sagt Gilligan-Lee. "Man muss dafür über merkwürdige Dinge nachdenken. Man fragt nach der Wahrscheinlichkeit, mit der etwas eintritt, wenn es nicht eingetreten ist." Gilligan-Lee und seine Mitautoren trafen sich, nachdem sie in einem Artikel in MIT Technology Review von der Arbeit des jeweils anderen gelesen hatten. Ihr Counterfactuals-Modell basiert nun auf sogenannten Zwillingsnetzwerken. Diese wurden in den 90er Jahren von den Informatikern Andrew Balke und Judea Pearl erfunden. Pearl erhielt 2011 den Turing Award, der als Nobelpreis der Informatik gilt, für seine Arbeit über kausale Schlussfolgerungen und künstliche Intelligenz.

Pearl und Balke verwendeten Zwillingsnetzwerke, um eine Handvoll einfacher Beispiele durchzuarbeiten, sagt Gilligan-Lee. Doch die Anwendung dieses mathematischen Rahmens auf größere und komplexere Fälle in der realen Welt ist schwierig. An dieser Stelle kommt das Maschinelle Lernen ins Spiel. Zwillingsnetzwerke behandeln Counterfactuals als ein Paar probabilistischer Modelle: eines repräsentiert die tatsächliche Welt, das andere die fiktive. Die Modelle sind so miteinander verknüpft, dass das Modell der tatsächlichen Welt das Modell der fiktiven Welt einschränkt, so dass es in jeder Hinsicht gleich bleibt – mit Ausnahme der Fakten, die man ändern möchte.

Gilligan-Lee und seine Kollegen verwendeten Zwillingsnetzwerke als Modell für ein neuronales Netz und trainierten es dann, Vorhersagen darüber zu treffen, wie sich die Ereignisse in der fiktiven Welt abspielen würden. Das Ergebnis ist ein universell einsetzbares Programm für Schlussfolgerungen im Rahmen von Counterfactuals. "Damit kann man jede beliebige kontrafaktische Frage zu einem Szenario beantworten", sagt Gilligan-Lee.

Das Spotify-Team testete sein Modell anhand mehrerer realer Fallstudien, darunter eine zur Kreditvergabe in Deutschland, eine zu einer internationalen klinischen Studie für Schlaganfallmedikamente und eine zur Sicherung der Wasserversorgung in Kenia.

Im Jahr 2020 untersuchten Forscher, ob die Installation von Rohren und Betonschutzwänden Wasserquellen vor bakterieller Verunreinigung in einer Region Kenias schützen würde, um die Zahl der Durchfallerkrankungen bei Kindern zu verringern. Sie sahen einen positiven Effekt. Dabei war aber die wirkliche Ursache unklar, sagt Gilligan-Lee. Bevor man im ganzen Land Brunnen mit Beton absichert, musste man sicher sein, dass der Rückgang der Krankheitsfälle tatsächlich durch diese Maßnahme verursacht wurde und nicht nur eine Nebenwirkung war.

So ist es möglich, dass die Forscher, die die Studie durchführten und Betonschutzwände um die Brunnen herum errichteten, die Menschen für die Risiken von verunreinigtem Wasser sensibilisierten und sie deshalb erst begannen, es zu Hause abzukochen. "In diesem Fall wäre Aufklärung ein billigerer Weg", so Gilligan-Lee.

Gilligan-Lee und seine Kollegen ließen dieses Szenario durch ihr Modell laufen und fragten, ob Kinder, die in der realen Welt nach dem Trinken aus einem ungeschützten Brunnen krank wurden, auch nach dem Trinken aus einem geschützten Brunnen in der fiktiven Welt krank wurden. Sie fanden heraus, dass die Änderung des Ortes, an dem das Kind getrunken hat – und die Beibehaltung anderer Bedingungen, wie z. B. die Aufbereitung des Wassers zu Hause – keinen signifikanten Einfluss auf das Ergebnis hatte, was darauf hindeutet, dass der Rückgang der Durchfallerkrankungen bei Kindern nicht (direkt) durch die Installation von Rohren und Betonschutzwänden verursacht wurde.

Dies entspricht dem Ergebnis der Studie von 2020, bei der ebenfalls kontrafaktische Überlegungen angestellt wurden. Allerdings hatten diese Forscher ein maßgeschneidertes statistisches Modell von Hand erstellt, nur um diese eine Frage zu stellen, sagt Gilligan-Lee. Im Gegensatz dazu ist das maschinelle Lernmodell des Spotify-Teams universell einsetzbar und kann verwendet werden, um mehrere kontrafaktische Fragen zu vielen verschiedenen Szenarien zu stellen.

Spotify ist nicht das einzige Technologieunternehmen, das sich um die Entwicklung von Machine-Learning-Modellen bemüht, die über Ursache und Wirkung Auskunft geben könnten. In den letzten Jahren haben auch Firmen wie Meta, Amazon, LinkedIn und ByteDance, Eigentümerin von TikTok, mit der Entwicklung dieser Verfahren begonnen.

"Kausale Schlussfolgerungen sind für das maschinelle Lernen von entscheidender Bedeutung", sagt Nailong Zhang, Softwareingenieur bei Meta. Meta verwendet diese beispielsweise in seinem maschinellen Lernmodell, das entscheidet, wie viele und welche Arten von Benachrichtigungen Instagram seinen Nutzern schicken sollte, um sie zum Wiederkommen auf die Plattform zu bewegen.

Romila Pradhan, Datenwissenschaftler an der Purdue University in Indiana, verwendet Counterfactuals, um die automatisierte Entscheidungsfindung transparenter zu machen. Unternehmen verwenden heute maschinelle Lernmodelle, um zu entscheiden, wer einen Kredit, einen Job, eine Gefängnisbewährung oder sogar eine Wohnung bekommt – und wer nicht.

Die Aufsichtsbehörden haben deshalb damit begonnen, von Unternehmen zu verlangen, dass sie den Betroffenen die Ergebnisse solcher Entscheidungen erläutern. Es ist jedoch schwierig, die Schritte eines komplexen Algorithmus zu rekonstruieren.

Pradhan glaubt, dass Counterfactuals hier helfen können. Nehmen wir an, das maschinelle Lernmodell einer Bank lehnt Ihren Kreditantrag ab und Sie möchten wissen, warum. Eine Möglichkeit, diese Frage zu beantworten, sind kontrafaktische Szenarien. Angenommen, der Antrag wurde in der realen Welt abgelehnt. Wäre er auch in einer fiktiven Welt abgelehnt worden, in der Ihre Kreditgeschichte anders verlaufen wäre? Was wäre, wenn Sie eine andere Postleitzahl, einen anderen Arbeitsplatz, ein anderes Einkommen usw. gehabt hätten? "Die Möglichkeit, solche Fragen in künftige Kreditgenehmigungsprogramme einzubauen, würde den Banken ermöglichen, ihren Kunden eine Begründung zu liefern, anstatt nur ein 'Ja' oder 'Nein' zu geben", erläutert Pradhan.

Kontrafaktische Fragen sind wichtig, weil sie zeigen, wie Menschen über verschiedene Ergebnisse denken, sagt sie: "Das ist eine gute Möglichkeit, Erklärungen zu erfassen." Außerdem kann die Technik Unternehmen dabei helfen, das Verhalten der Menschen vorherzusagen. Da kontrafaktische Fragen Rückschlüsse darauf zulassen, was in einer bestimmten Situation – und nicht nur im Durchschnitt – passieren könnte, könnten Nutzer noch besser eingeordnet werden in ihre ganz eigene Schublade.

Dieselbe Logik, mit der sich der Schutz von Trinkwasser oder die Entscheidungen über Kredite begründet lässt, könnte auch verwendet werden, um die Reaktionen auf Spotify-Playlisten, Instagram-Benachrichtigungen und zielgerichtete Werbung zu optimieren. Wenn wir diesen Song abspielen, wird der Nutzer dann länger zuhören? Wenn wir dieses Bild zeigen, wird diese Person dann weiter scrollen? "Unternehmen wollen verstehen, wie sie Empfehlungen für bestimmte Nutzer geben können und nicht nur für den Durchschnittsnutzer", sagt Gilligan-Lee. Ob die User das auch so wollen, ist eine andere Frage.

(bsc)