„Auf Deep Learning aufbauen“

Einer der Erfinder der derzeit wichtigsten Verfahrens für Maschinenlernen will mehr: Die Technik sei sehr hilfreich, aber noch lange nicht genug, sagt Yoshua Bengio.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
„Auf Deep Learning aufbauen“

(Bild: Ecole polytechnique / Flickr)

Lesezeit: 5 Min.
Von
  • Will Knight

Yoshua Bengio ist ein Großmeister der modernen künstlichen Intelligenz. Neben Geoff Hinton und Yann LeCun ist er berühmt dafür, eine Technik namens Deep Learning vorangetrieben zu haben, die in den vergangenen Jahren von einer akademischen Kuriosität zu einer der mächtigsten Technologien weltweit geworden ist.

Dem Werben von großen Technologie-Unternehmen hat Bengio bislang widerstanden. Hinton und LeCun arbeiten inzwischen bei Google bzw. Facebook. Er aber ist weiterhin als Vollzeit-Professor an der University of Montreal tätig.

Technology Review: Was halten Sie von der Vorstellung, dass es bei künstlicher Intelligenz (KI) ein Wettrüsten zwischen Ländern gibt?

Yoshua Bengio: Sie gefällt mir nicht. Ich finde nicht, dass man so vorgehen sollte.

Wir könnten kollektiv an einem Rennen teilnehmen. Aber als Wissenschaftler und als Mensch, der an das gemeinsame Gute denken möchte, finde ich, dass wir besser beraten sind, wenn wir überlegen, wie wir intelligentere Maschinen bauen und zugleich dafür sorgen würden, dass KI für das Wohlergehen so vieler Menschen wie möglich eingesetzt wird.

Gibt es Möglichkeiten, mehr Zusammenarbeit zwischen Ländern zu fördern?

Wir könnten es für Menschen aus Entwicklungsländern leichter machen, hierher zu kommen. Das ist derzeit ein großes Problem. In Europa oder den USA oder Kanada ist es für einen afrikanischen Forscher sehr schwierig, ein Visum zu bekommen. Es ist eine Lotterie, und sehr häufig nutzen die Behörden beliebige Ausreden, um die Einreise zu verwehren. Das ist vollkommen unfair. Es ist schon schwierig genug, mit wenig Ressourcen Forschung zu betreiben; und dann bekommen die Forscher auch noch keinen Zugang zur Community, was ich wirklich unfair finde. Um dem etwas entgegen zu setzen, werden wir die Konferenz ICLR 2020 in Afrika abhalten.

Sind Sie besorgt darüber, dass ein paar Unternehmen im Westen und vielleicht in China das Feld der KI dominieren?

Ja, das ist ein weiterer Grund dafür, dass wir mehr Demokratie in der KI-Forschung brauchen. Die KI-Forschung an sich wird tendenziell zur Konzentration von Macht, Geld und Forschern führen. Die besten Studenten wollen zu den besten Unternehmen. Die haben viel mehr Geld und viel mehr Daten. Und das ist nicht gesund. Selbst in einer Demokratie ist es gefährlich, wenn zu viel Macht in wenigen Händen konzentriert ist.

Es gab schon viele Kontroversen über den militärischen Einsatz von KI. Wie stehen Sie dazu?

Ich bin absolut dagegen.

Auch bei nicht-tödlichen Anwendungen?

Nun, das möchte ich nicht ausschließen. Ich denke, dass wir den Einsatz von Killer-Robotern unmoralisch machen sollten. Wir müssen die Kultur verändern, und dazu gehört auch, Gesetze und Verträge zu verändern. Das kann viel helfen.

Natürlich wird man es nie vollkommen verhindern können – „irgendein Land außer Kontrolle wird diese Sachen entwickeln“, sagen manche. Meine Antwort lautet: Erstens sollten wir dafür sorgen, dass diese Länder sich dafür schuldig fühlen, und zweitens, es kann uns nichts davon abhalten, defensive Technologien zu bauen. Es gibt einen großen Unterschied zwischen defensiven Waffen, die Drohnen abschießen, und offensiven Waffen, die auf Menschen abzielen. Beide können aber KI nutzen.

Sollten KI-Experten nicht mit dem Militär zusammenzuarbeiten, um dazu beizutragen?

Wenn das Militär die richtigen moralischen Werte hätte, dann gern. Aber ich traue militärischen Organisationen nicht ganz, weil sie dazu neigen, die Pflicht vor die Moral zu setzen. Ich wünschte, es wäre anders.

Was finden Sie an der neueren KI-Forschung am spannendsten?

Ich glaube, dass wir über die harten Herausforderungen bei KI nachdenken und uns nicht mit kurzfristigen, inkrementellen Fortschritten zufrieden geben sollten. Ich will nicht sagen, dass ich Deep Learning vergessen möchte. Ganz im Gegenteil, ich will darauf aufbauen. Aber wir müssen in der Lage sein, es zu erweitern, damit Maschinen argumentieren, Kausalität lernen und die Welt erkunden können, um zu lernen und Informationen aufzunehmen.

Wenn wir wirklich näher an KI auf menschlichem Niveau herankommen wollten, ist das ein ganz anderes Spiel. Wir brauchen langfristige Investitionen, und ich glaube, die Wissenschaft ist am besten dafür geeignet, diese Fackel zu tragen.

Sie haben Kausalität erwähnt, also nicht nur Muster in Daten zu erkennen, sondern die Gründe dafür, warum etwas passiert. Warum ist das wichtig, und warum ist es so schwierig?

Wenn man ein gutes Kausalmodell der Welt hat, kann man selbst in unbekannten Situationen generalisieren. Das ist entscheidend. Wir Menschen sind in der Lage, uns in Situationen zu versetzen, die sich sehr von unserer alltäglichen Erfahrung unterscheiden. Maschinen können das nicht, sie haben nicht diese Kausalmodelle.

Wir können die Modelle einzeln programmieren, aber das reicht nicht aus. Wir brauchen Maschinen, die Kausalmodelle selbst entdecken. In einem gewissen Maß wird das nie perfekt sein. Wir selbst haben kein perfektes Kausalmodell der Realität – aus diesem Grund machen wir viele Fehler. Aber wir sind weitaus besser darin als andere Tiere.

Derzeit haben wir keine wirklich guten Algorithmen dafür. Aber ich glaube, wenn genügend Leute daran arbeiten und es für wichtig halten, werden wir Fortschritte machen.

(sma)