"Wir suchen im Lichtkegel eines Laternenpfahls"

Peter Norvig von Google und Eric Horvitz von Microsoft Research über den Status Quo in der Künstliche-Intelligenz-Forschung und ihre Erwartungen für die künftige Entwicklung.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 8 Min.
Von
  • Tom Simonite

Google und Microsoft begeben sich selten gemeinsam ins Rampenlicht. Zu groß ist die Rivalität der Suchmaschinenbetreiber, die auch im mobilen Internet und beim Cloud Computing konkurrieren. Einig sind sich beide Konzerne jedoch darin, dass Künstliche Intelligenz (KI) eine bedeutende Rolle für die Informationstechnik der Zukunft spielen wird.

Bei einer Veranstaltung im Computer History Museum in Palo Alto erläuterten Peter Norvig, Forschungsleiter von Google, und Eric Horvitz, einer der führenden Wissenschaftler bei Microsoft Research, ihre Ansichten zur KI. Technology Review bat die beiden anschließend zum gemeinsamen Gespräch über den Status Quo in der KI-Forschung und ihre Erwartungen für die künftige Entwicklung.

Technology Review: Sie haben in Ihren Vorträgen skizziert, welche Fortschritte die KI-Forschung in den letzten Jahren dank des so genannten Maschinenlernens gemacht hat. Maschinenlern-Algorithmen können in großen Datenbeständen Zusammenhänge erkennen, um etwa Texte zu übersetzen oder Sprachaufnahmen zu transkribieren. Was kann KI zu Problemstellungen beitragen, bei denen große Datenmengen fehlen, aus denen ein System „lernen“ könnte?

Peter Norvig: Was wir tun, könnte man vielleicht so umschreiben: Wir suchen noch im Lichtkegel eines Laternenpfahls nach heruntergefallenen Autoschlüsseln, weil es dort am hellsten ist. Mit Text- und Sprachverarbeitung sind wir gut vorangekommen, eben weil dort viele Daten zur Verfügung stehen. Sprache grammatikalisch zu analysieren funktioniert üblicherweise aber nicht, weil wir keine entsprechend kategorisierten Daten haben. Einer meiner Kollegen versucht das Problem zu umgehen, indem er in Online-Texten die Links heranzieht, weil diese Passagen einen Hinweis darauf geben, an welcher Stelle sich ein bestimmter Teil eines Satzes befindet.

Eric Horvitz: Ich denke oft darüber nach, wie es wäre, wenn wir einen Cloud-Dienst im Himmel hätten, der sämtliche Gespräche – zum Beispiel in einem Taxi in Peking – und ihre Folgeereignisse aufzeichnet. Daraus könnte eine KI-Technologie vielleicht lernen, wie man etwas X-beliebiges richtig macht.

Spaß beiseite: Gelänge es uns, sehr viele Daten zu sammeln und dabei gleichzeitig die Privatsphäre zu erhalten, könnte das klappen.

TR: Ist Maschinenlernen nicht schwierig, wenn es keine kategorisierten Trainingsdaten gibt, die eine KI-Anwendung als „wahren“ Ausgangspunkt nehmen kann?

Horvitz: Eine vollständige Kategorisierung ist nicht nötig. Das Gebiet des so genannten halbüberwachten Lernens zeigt, dass man bereits mit einem Anteil an kategorisierten Daten von weniger als einem Prozent den Rest erschließen kann.

Eine Herausforderung ist diese Situation dennoch. Eine Lösung ist, Leute dafür zu bezahlen, dass sie den Sinn von Daten bestimmen, mit dem ein System nicht zurande kommt. Zu solchen Aufgaben gehört etwa das Verschlagworten von Bildern. KI-Anwendungen durch „menschliches Computing“ zu ergänzen, ist ein wirklich spannendes Gebiet.

Eine andere Lösung sind Systeme, die den Wert von Information verstehen und so automatisch die bestmögliche Folgefrage zu einer Frage berechnen. Oder die bestimmen, welches zusätzliche Schlagwort, das ein Mensch eingibt, am wertvollsten ist.

Norvig: Sie müssen einem lernenden System nicht alles vorher beibringen. Eine Variante ist das so genannte bestärkende Lernen. Hierbei wird am Ende einer jeden Aufgabe eine Belohnung oder eine Strafe vergeben, aber nur am Ende. Ein Beispiel: Sie verlieren ein Dame-Spiel, erfahren aber nicht, wo sie einen falschen Zug gemacht haben. Sie kriegen die Belohnung nur, wenn Sie gewonnen haben.

TR: Diese Ansätze unterscheiden sich sehr von den Anfangstagen der KI-Forschung in den fünfziger und sechziger Jahren. Damals gab es kühne Prognosen, wann Computersysteme mit Menschen gleichziehen würden. Man versuchte, künstliche Intelligenz durch ein übergeordnetes, abstraktes Regelsystem zu erreichen. Finden Maschinenlern-Systeme diese Regeln heute selbständig?

Horvitz: Lernende Systeme können übergeordnete Regeln selbst ableiten, wenn sie beispielsweise aus physiologischen Symptomen und anschließenden Tests eine medizinische Diagnose erstellen. Diese Regeln sind aber nicht dasselbe wie allgemeine Regeln der Intelligenz.

Vielleicht trifft sich unser Ansatz, mit einfachen Regeln von unten zu beginnen, irgendwann mit dem alten „Top-Down“-Ansatz. Die wissenschaftliche Revolution, an der Peter Norvig und ich beteiligt waren, bestand in der Erkenntnis, dass Entscheidungen bei unsicherer Datenlage so überaus wichtig sind und mit probabilistischen Verfahren getroffen werden können. Damit hat sich auch die Perspektive verschoben: Wir sind eigentlich sehr beschränkte „Agenten“. Man kann dem Problem der Unvollständigkeit nicht aus dem Weg gehen.

Norvig: Am Anfang galt die Logik als herausstechendes Merkmal von KI. Es ging darum, wie man sie einsetzt. Also untersuchte man, wozu sie gut ist, etwa beim Schach. Mit diesem Ansatz gibt es aber nur wahre oder falsche Sachverhalte, und Vieles wird zwangsläufig ausgeblendet. Deshalb haben wir uns der Probabilistik zugewandt. Es hat aber eine Weile gedauert, bis die Forschung den Wert von Probabilistik oder Entscheidungstheorie erkannte. Sie mit dem Logik-Ansatz zu vereinen, ist harte Arbeit.

TR: Mit neuen, direkteren KI-Anwendungen wie Siri, dem Assistenzprogramm im iPhone, scheint ein neues Problem zu entstehen. Wer KI-Anwendungen entwickelt, muss sie so anlegen, dass sie gut mit unserer (menschlichen) Intelligenz zusammenpasst.

Norvig: Dieses Problem hat sogar mehrere Ebenen. Wir wissen, wie das menschliche Sehsystem funktioniert. Wir wissen, was dort ausgelöst wird, wenn wir etwa Buttons in unterschiedlichen Farben anlegen. Auf einer höheren Ebene basieren unsere Erwartungen an das Verhalten von Dingen auf unserer Einschätzung, was das für Dinge sind und wie sich sich zu uns verhalten.

Horvitz: Die KI-Forschung überschneidet sich immer mehr mit dem Gebiet der Mensch-Maschine-Interaktion. Mit der Vorstellung, dass wir künftig immer intelligentere Gegenstände um uns haben, werden neue Verfahren wichtiger, die die Schnittstelle zwischen menschlicher und Maschinenintelligenz berücksichtigen.

TR: Was fehlt uns noch, um KI-Systeme besser an den Menschen anzupassen?

Horvitz: Meine Forschungsgruppe arbeitet unter anderem daran, Computern ein generelles Verständnis der menschlichen Aufmerksamkeit zu geben – also dass sie wissen, wann der geeignete Moment ist, eine Person zu unterbrechen. In diese Forschung sind auch die Produktentwickler bei uns eingebunden.

Norvig: Wir möchten auch den menschlichen Körper noch besser verstehen. Die Konsolensteuerung Kinect von Microsoft zielt in diese Richtung. Systeme, die unsere Körpersprache und unser Verhalten verstehen, haben ein großes Potenzial.

TR: Steckt denn in der Kinect schon KI drin?

Horvitz: Maschinenlernen ist ein wichtiger Teil der Technologie. Die Tatsache, dass wir mit modernster KI-Technik ein Verbraucherprodukt entwickelt haben, das sich schneller als jedes andere Gerät verkauft hat, verrät eine Menge über das Gebiet der KI. Maschinenlern-Algorithmen spielen auch eine zentrale Rolle in der Suchmaschine Bing, und ich nehme an, das gilt auch für Googles Suchmaschine. Wer das Web durchsucht, nutzt bereits KI.

TR: Eine Frage noch: Gibt es irgendeine aktuelle Demo-Anwendung aus der KI, die Sie beeindruckt hat?

Norvig: Das war ein Paper von jemandem bei Google, der sich an der Stanford University wieder mit unbewachtem Lernen beschäftigt. Damit hatten wir bisher nicht so viel Erfolg. Seine Ergebnisse waren aber ziemlich gut. Es könnte also sein, dass es Maschinenlernen ohne jegliches Vorwissen einige Fortschritte geben wird.

Horvitz: Mich hat der Ansatz des "Apprentice Learning" beeindruckt, bei dem ein System aus Beispielen lernt. Sowohl in Berkeley als auch in Stanford machen Forschungsgruppen damit Fortschritte: zum Beispiel, indem sie Steuersysteme von Helikoptern beigebracht haben, auf dem Kopf zu fliegen, nachdem ihnen menschliche Experten das vorgemacht haben. (nbo)