Buchbesprechung: Die Intelligenz der Maschinen

Futurist Martin Ford spricht mit Koryphäen der Künstlichen Intelligenz wie Geoffrey Hinton, Yoshua Bengio und Yann LeCun.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
Buchbesprechung: Die Intelligenz der Maschinen

(Bild: Shutterstock/Usa-Pyon)

Lesezeit: 5 Min.
Von
  • Oliver Zeigermann
Inhaltsverzeichnis

Martin Ford
Die Intelligenz der Maschinen

mitp 2019
536 Seiten, 34,99 Euro (Buch & E-Book [PDF/EPUB])
ISBN: 978-3-747-50009-5

"Die Intelligenz der Maschinen" von Martin Ford bündelt eine Reihe von Interviews mit bekannten Persönlichkeiten aus der KI-Forschung. Ford bezeichnet sich als Zukunftsforscher, ist aber auch Autor und Gründer einer Softwareentwicklungsfirma. Er hält die Interviews auf einem wenig technischen Niveau. Das macht das Buch auch für eine breitere Masse an Lesern interessant, die sich über die Auswirkungen von künstlicher Intelligenz auf Innovation und die Zukunft der Gesellschaft informieren wollen.

Die Intelligenz der Maschinen

(Bild: mitp)

Das Vorwort der deutschen Übersetzung steuert ein weiterer Prominenter aus dem Bereich KI bei: Jürgen Schmidhuber. Er nutzt seine einführende Worte dazu, Teile des Buchs zu kritisieren, da seiner Meinung nach in vielen Interviews nicht die "richtigen" Gründer der wichtigen Ideen genannt würden. Schmidhuber sieht die Urheber vieler KI-Entwicklungen in Europa und weniger in den USA. Viele der wichtigsten Erkenntnisse gingen auf ihn und sein Team zurück. Das ist eine interessante Meinung, die er sicherlich eher exklusiv haben dürfte.

Die Interviews im Buch kommen dann aber weniger meinungsgeprägt daher. Ein Highlight ist Geoffrey Hinton, der auch in den 2000er-Jahren weiterhin fest an neuronale Netze glaubte, als der Rest der Welt diese schon abgeschrieben hatte. Hinton darf als einer der Väter von Auto-Encodern und Embeddings gelten, da er bereits in den 1980er-Jahren Boltzmann-Maschinen zum Laufen brachte, die mit Unsupervised Learning Repräsentationen von Konzepten wie Wörtern lernen konnten. Beim Unsupervised Learning füttert man die Maschine ja nicht mit passenden Paaren aus Frage und Antwort, sondern nur mit noch nicht interpretierten Daten. Aus heutiger Sicht ist es erstaunlich, dass das bereits vor über 35 Jahren möglich war.

Ein Grund für den vorzeitigen Stillstand der Entwicklungen rund um neuronale Netze lag in der begrenzten Tiefe, die die Netze haben konnten. Davon berichtet Yoshua Bengio in seinem Interview, und davon, wie ein relativ einfacher Trick vor rund zehn Jahren half, dieses Problem zu lösen. Seither stehen tiefere, komplexere und damit auch leistungsfähigere neuronale Netzwerke zur Verfügung, die sogenannten Deep Neural Networks – auch Deep Learning genannt.

Als Aktivierungsfunktion künstlicher Neuronen kam ursprünglich vorwiegend Sigmoid zum Einsatz, die einer Schwelle ähnlich und der damals angenommenen Funktionsweise von Neuronen im Gehirn nachempfunden war. Auf Sigmoid folgte später die Relu-Funktion, die zwar nichts mehr mit irgendwelchen Prozessen im Hirn zu tun hatte und intuitiv schwerer zu greifen ist, die sich aber als deutlich funktionstüchtiger erwies.

Daraus leitet sich allerdings auch ein Dilemma der Forschung um Deep Learning ab: Die theoretische Erklärbarkeit der Modelle ist selten gegeben und sie sind wenig intuitiv. Die Funktionen von Deep-Learning-Modellen sind für Menschen gar nicht oder nur sehr schwer nachzuvollziehen – die Modelle gleichen einer Black Box.

Andere Experten wie Gary Marcus und Judea Pearl glauben genau deshalb weniger an neuronale Netzwerke, weil sie eben keine Erklärungskraft hätten. Pearl sieht die Zukunft von künstlicher Intelligenz eher bei den Bayes-Netzen, mit denen sich auch Kausalität ableiten lasse. Das Thema ist nach wie vor relevant und wird von den genannten Akteuren eifrig diskutiert – hauptsächlich auf Twitter. Die Auseinandersetzungen drehen sich primär um die Frage, was Deep Learning denn eigentlich ausmacht und wie weit man damit kommen kann.

Das Buch schließt ab mit einer Einschätzung der befragten Experten, wann denn die künstliche Intelligenz das Niveau der menschlichen erreichen wird. Auch auf Basis einer Umfrage kommt der Autor zu dem Schluss, dass dies erst im Jahr 2099 so weit sei. Während es einerseits erstaunlich klingt, dass die Experten überhaupt davon ausgehen, dass KI menschlicher Intelligenz ebenwürdig werden wird, erscheint das in ferner Zukunft liegende Datum wiederum einigermaßen nachvollziehbar – oder zumindest realistischer als viele in den Massenmedien publizierte Spekulationen.

Das Buch "Die Intelligenz der Maschinen" empfiehlt sich ebenso für technisch interessierte Laien, die sich mit dem aktuellen Stand der KI-Forschung auseinandersetzen wollen, wie für Machine-Learning-Experten mit einem Faible für die historischen Zusammenhänge. Dabei ist das Buch nicht durchgehend gut geschrieben beziehungsweise übersetzt, aber dennoch meist locker und flockig zu lesen.

Oliver Zeigermann
ist Entwickler, Architekt, Berater und Coach. Oliver hat über Jahrzehnte in vielen unterschiedlichen Sprachen und mit vielen Technologien Software entwickelt. In den letzten Jahren ist er wieder tiefer in den Bereich Machine Learning eingestiegen. Er knüpft damit an sein Studium der Künstlichen Intelligenz in den 90er-Jahren an.
(map)