Zurück in die Zukunft

Es lohnt sich, die Geschichte der KI neu zu betrachten. Vermutlich liegen in den Irrtümern der Vergangenheit die Antworten auf die Fragen der Zukunft.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 4 Min.

Dieser Artikel-Ausschnitt ist der Print-Ausgabe der Technology Review entnommen. Das Heft 3/2018 ist ab 22.2.2018 im gut sortierten Zeitschriftenhandel und im heise shop erhältlich.

Es war einmal, im Sommer 1956, da lebten in Amerika vier weise Männer, die glaubten, dass Computer sämtliche Aspekte des menschlichen Denkens simulieren können. Also luden sie sechs weitere weise Männer in das beschauliche Dartmouth College ein, nach Hanover, New Hampshire, wo die Gelehrten zwei Monate lang dachten und diskutierten. Und so entstand die Wissenschaft von der künstlichen Intelligenz.

So, oder zumindest so ähnlich, kann man die Geschichte der KI in vielen Büchern nachlesen. Aber das Symposium, das John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon 1956 einberufen hatten, war keineswegs der Urknall der KI. Ihre Geschichte ist weitaus weniger geradlinig. Es ist auch die Geschichte von genialen Quereinsteigern wie Walter Pitts, ohne Universitätsabschluss, der aber die Grundlagen für die Forschung an neuronalen Netzen legte. Oder von Allen Newell und Herbert Simon, einem Psychologen und einem Soziologen, die das menschliche Denken durch Nachbauen verstehen wollten. Und natürlich auch die der Kybernetiker, die keine Unterschiede kannten zwischen Mensch, Maschine und Gesellschaft.

Zwar war der Informatik-Pionier Alan Turing höchstselbst bereits 1936 davon überzeugt, dass seine „universale Maschine“ in der Theorie jedes mögliche Problem lösen und damit auch im menschlichen Sinne denken konnte (siehe auch Seite 86). Wie genau das funktionieren könnte, zeigten Warren McCulloch und Walter Pitts von der University of Chicago dann 1943. Sie bewiesen, dass über Synapsen verbundene Neuronen, die ab einer bestimmten Anregung anfangen zu feuern, sich genau wie ebendiese Turing-Maschinen verhalten – das Gehirn also nichts anderes zu sein scheint als ein großer komplizierter Computer (siehe auch Seite 94).

Die beiden Forscher stehen geradezu prototypisch für eine ganze Generation von Wissenschaftlern, denen die Grenzen ihrer eigenen Wissensgebiete offenbar zu eng geworden waren: Warren McCulloch hatte ursprünglich Philosophie und Psychologie studiert, wechselte dann zu Medizin und spezialisierte sich auf Neurologie. Walter Pitts brachte sich als Jugendlicher selbst Altgriechisch, Latein und Sanskrit bei, las auf eigene Faust die „Principia Mathematica“ von Bertrand Russell und riss 1938 von zu Hause aus, weil er unbedingt dessen Vorlesungen an der University of Chicago besuchen wollte. Dort lernte er auch McCulloch kennen und mit ihm die Kybernetiker.

Die Bezeichnung „Kybernetik“ tauchte zwar erst 1948 zum ersten Mal auf – im gleichnamigen Buch von Norbert Wiener. In den 1940er-Jahren sammelte sich jedoch bereits ein stetig wachsender Kreis um den Mathematiker, der interdisziplinär über „Kontrolle und Kommunikation“ diskutierte. Letztendlich, argumentierten die Kybernetiker, ließen sich fast alle „komplexen Systeme“aufgrund ihres Verhaltens charakterisieren. Wiener unterschied nicht zwischen Lebewesen, menschlichen Gesellschaften und Maschinen. Für ihn ließ sich jede Verhaltensweise mit einer Theorie beschreiben.

Der britische Kybernetiker Grey Walter von der University of Bristol konstruierte bereits um 1950 Roboter, die das zeigen sollten. Walters Idee war, „zielgerichtetes“ Verhalten mit so wenig Komponenten wie möglich zu erreichen. Die „Schildkröte“ Cora etwa suchte nach hellen Lichtquellen und konnte einfache Zusammenhänge lernen wie ein Pawlowscher Hund. Blies Walter in eine Trillerpfeife und stellte Cora ein Hindernis in den Weg, lernte der Roboter schnell, auf das Geräusch mit einer Ausweichbewegung zu reagieren, auch wenn kein Hindernis da war.

Für Wiener waren aber auch „gemischte Systeme“ denkbar, die sowohl menschliche als auch mechanische Teile besitzen sollten. Deshalb forschte der Mathematiker auch an Prothesen, die mit elektrischen Nervensignalen gesteuert werden sollten. Der Gedanke von Mischwesen übte auf viele Wissenschaftler damals offenbar eine große Anziehungskraft aus. Selbst die Nasa prüfte 1963 in einer „Cyborg-Studie“ unter dem Titel „Engineering Man for Space“, ob und, wenn ja, wie Menschen für außerirdische Einsätze technisch „umgerüstet“ werden konnten – etwa mit Implantaten in der Lunge.

Die Fokus-Artikel im Einzelnen:

Seite 82 - Historie: Der steinige Weg zum Durchbruch – und was dabei auf der Strecke blieb

Seite 86 - IQ-Test: Was genau ist eigentlich künstliche Intelligenz, und wie lässt sie sich messen?

Seite 90 - Körper: Intelligenz kann nicht ohne Sinneseindrücke aus der Umwelt funktionieren

Seite 94 - Deep Learning: Vom alten Hut zum großen Hype

Seite 98 - Emotionen: Erst das richtige Gefühl lässt Maschinen klug agieren

(wst)