Lernen wie der Nachwuchs

Um schneller zu lernen und zuverlässiger zu werden, braucht künstliche Intelligenz gesunden Menschenverstand. Ein neues Programm der Darpa soll diese bislang bestehende Lücke schließen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lernen wie die Babys

(Bild: "small kid playing around" / Thomas Frost Jensen / cc-by-2.0)

Lesezeit: 4 Min.
Von
  • Will Knight
Inhaltsverzeichnis

Überall dort, wo mit künstlicher Intelligenz gearbeitet wird, kommt es auch vor, dass sie auf amüsante Weise versagt. Manche Algorithmen für Übersetzung etwa können nicht unterscheiden, ob jemand Gast bei einem Essen ist oder selbst das Essen. Doch je kritischer die Situationen werden, in denen KI eingesetzt wird, desto weniger lustig werden solche Ausfälle. Bei autonomen Autos, medizinischen Diagnosen oder auch militärischen Entscheidungen über Leben und Tod zum Beispiel wird es ausgesprochen ernst.

Mehr Infos

Aus diesem Grund beschäftigt sich die Darpa, der Forschungsarm des US-Verteidigungsministeriums, jetzt mit der grundlegendsten Schwäche von KI: der Tatsache, dass es ihr an gesundem Menschenverstand fehlt. „Gesunder Menschenverstand ist die dunkle Materie von künstlicher Intelligenz“, sagt dazu Oren Etzioni, CEO des Allen Institute for KI, einer in Seattle ansässigen Organisation, die sich mit den Grenzen der Technologie beschäftigt. „Er ist schwer zu beschreiben, aber man sieht seine Auswirkungen überall.“

In dem neuen Darpa-Programm Machine Common Sense (MCS) gibt es deshalb einen Wettbewerb, in dem KI-Algorithmen Fragen wie die folgende richtig verstehen und beantworten sollen: Ein Student pflanzt zwei identische Pflanzen in dieselbe Art und Menge Boden. Beide erhalten gleich viel Wasser. Eine der Pflanzen stellt er in die Nähe eines Fensters, die andere in einen dunklen Raum. Wird die Pflanze am Fenster a) mehr Sauerstoff, b) mehr Kohlendioxid oder c) mehr Wasser produzieren?

Um mit dieser Frage zurechtzukommen, muss ein Computer-Programm grob verstehen, wie Photosynthese funktioniert. Wenn man eine Maschine schlicht mit vielen anderen Fragen und Antworten füttert, wird sie dieses Problem nicht zuverlässig lösen können.

Der Schwerpunkt bei den Tests wird auf Sprache liegen, weil sie Maschinen leicht durcheinanderbringt und weil die Überprüfung relativ einfach ist. Laut Etzioni bieten die Fragen die Möglichkeit, den Fortschritt in Richtung von gesundem Menschenverstand zu messen, was von großer Bedeutung sei.

Technologieunternehmen sind derzeit dabei, Verfahren für Maschinenlernen zu kommerzialisieren, die leistungsfähig sind, aber auch grundlegend begrenzt. Mit Deep Learning zum Beispiel ist es möglich, Worte in Sprache oder Objekte auf Bildern zu erkennen, oft mit unglaublicher Präzision. Aber dafür müssen zumeist große Mengen an gekennzeichneten Daten – Audio-Signale oder die Pixel eines Bildes – in ein großes neuronales Netzwerk eingespeist werden. Das System kann lernen, wichtige Muster darin zu identifizieren, macht aber leicht Fehler, weil es keine Vorstellung von der Welt allgemein hat.

Menschliche Babys dagegen sind in der Lage, sich rasch ein intuitives Bild von der Welt zu machen, das als Grundlage für ihre Intelligenz dient. Wie sich diese Fähigkeit auch Computern verleihen lässt, ist alles andere als offensichtlich.

Bisherige Versuche haben sich darauf konzentriert, per Hand große Wissensdatenbanken aufzubauen, was eine aufwendige und im Prinzip nie endende Aufgabe ist. Der bekannteste Versuch dieser Art ist Cyx, und daran wird schon seit Jahrzehnten gearbeitet.

Das Problem könnte von enormer Bedeutung sein. Mangelnder Menschenverstand könnte in kritischen Situationen schließlich verheerende Folgen haben und KI letztlich ausbremsen. Die Darpa hat schon in der Vergangenheit in KI-Grundlagenforschung investiert. Frühere Projekte haben zur Entstehung von autonomen Autos und des bekannten persönlichen Sprach-Assistenten Siri beigetragen.

„Das Fehlen von gesundem Menschenverstand verhindert, dass ein intelligentes System die Welt versteht, dass es auf natürliche Weise mit Menschen kommuniziert, dass es sich in unvorhergesehenen Situationen vernünftig verhält und dass es aus neuen Erfahrungen lernt.“

Das schreibt Dave Gunning, Programm-Manager bei der Darpa, zu dem neuen Programm. „Diese Schwäche ist die vielleicht bedeutendste Hürde zwischen den eng fokussierten KI-Anwendungen, die wir heute haben, und allgemeineren KI-Anwendungen, die wir für die Zukunft schaffen wollen.“

(sma)