Essay: Die sieben Todsünden der KI-Vorhersagen

Seite 2: Wir verstehen KI noch nicht

Inhaltsverzeichnis

Aber wenn Leute hören, dass irgendein KI-System eine bestimmte Aufgabe geschafft hat, verallgemeinern sie diese Leistung oft zu einer generellen Kompetenz, die sie einem Menschen zusprechen würden, der die gleiche Aufgabe erledigt hat.

Dabei sind die Leistungen heutiger Roboter und KI-Systeme unglaublich eng umgrenzt. Sie lassen sich nicht verallgemeinern.

4. Kofferwörter

Marvin Minsky nannte Wörter, die eine Vielzahl von Bedeutungen haben, "Kofferwörter". "Lernen" ist so ein mächtiges Kofferwort. Lernen, mit Stäbchen zu essen, ist beispielsweise eine ganz andere Erfahrung als das Erlernen eines Songs.

Wenn Menschen nun hören, dass maschinelles Lernen in einem neuen Bereich große Fortschritte gemacht hat, neigen sie dazu, dies mit menschlichem Lernen zu vergleichen. Maschinelles Lernen erfordert allerdings viel Vorbereitung durch Forscher sowie spezielle Programmierung und Trainingsdaten für jedes neue Problem. Es hat nichts mit dem schwammartigen Lernen zu tun, mit dem sich Mensch neue Domänen rasch und ohne chirurgische Eingriffe aneignen.

Auch wenn die Leute erfahren, dass Computer Schach oder Go "spielen", glauben sie, dabei handele es sich um etwas Ähnliches wie das Spielen eines Menschen. Aber Menschen wirft eine kleine Regeländerung nicht um. Bei KI-Programmen wie AlphaGo oder Deep Blue ist das anders.

Kofferwörter täuschen uns darüber, wie gut Maschinen menschliche Aufgaben tatsächlich erledigen. Das liegt zum Teil daran, dass KI-Forscher – und schlimmer noch, ihre Pressestellen – gern große Fortschritte in einem bestimmten Fall eines Kofferworts verkünden. Die Betonung liegt hier auf in einem bestimmten Fall. Dieses Detail geht schnell verloren, wenn Schlagzeilen das Ergebnis heraustrompeten.

Dies verzerrt das allgemeine Verständnis davon, wo künstliche Intelligenz steht und was sie demnächst erreichen kann.

5. Exponentiell

Viele Menschen leiden unter schwerer Exponentialitis. Jeder hat schon von Moores Gesetz gehört. Es besagt, dass sich die Zahl der Komponenten eines Mikrochips jedes Jahr verdoppelt. Dies traf 50 Jahre lang zu, wobei sich die Zeit für eine Verdopplung allerdings von einem auf über zwei Jahre allmählich verlängert hat – und ein Ende dieses Musters abzusehen ist.

Moore's Law war bislang erfolgreich, weil es auf einer Wahr-oder-falsch-Aussage beruht: Gibt es in einem Stromkreis eine Spannung oder nicht? Nun aber werden die Chipkomponenten immer kleiner – bis sie eine physikalische Grenze erreichen, wo so wenige Elektronen fließen, dass Quanteneffekte dominieren. An diesem Punkt sind wir mit unserer siliziumbasierten Chiptechnologie nun angekommen.

Wenn Menschen unter Exponentialitis leiden, denken sie, das exponentielle Wachstum, mit dem sie ihre Argumente stützen, werde ewig weitergehen. Aber Moore's Law und andere scheinbar exponentielle Gesetze können enden – zumal, wenn sie überhaupt nicht wirklich exponentiell sind.

Anfang dieses Jahrhunderts, als ich das Computer Science and Artificial Intelligence Laboratory des MIT leitete und Geld für über 90 verschiedene Forschungsgruppen einwerben musste, versuchte ich, Sponsoren mit dem Speicherwachstum der iPods davon zu überzeugen, dass sich die Dinge weiterhin sehr schnell ändern.

Hier die Daten für 400-Dollar-iPods: Extrapoliert man das bis heute, landet man bei 160000 Gigabyte. Aber selbst das aktuelle Top-iPhone (das weit mehr als 400 Dollar kostet) hat nur 256 Gigabyte. Das Wachstum stoppte, als der Speicherplatz für sämtliche Musik, Apps, Fotos und Videos eines normalen Nutzers ausreichte. Exponentialfunktionen können kollabieren, wenn ein physikalisches Limit erreicht ist oder es keinen ökonomischen Grund mehr gibt, sie fortzusetzen.

Ähnlich sieht es mit der plötzlichen Leistungssteigerung von KI-Systemen dank Deep Learning aus. Viele Leute glauben offenbar, dass die KI-Leistung weiterhin ähnlich schnell steigen wird. Aber die aktuellen Erfolge basieren auf 30 Jahren Vorarbeit und sind ein Einzelfall.

Das bedeutet nicht, dass es künftig keine plötzlichen Leistungssprünge mehr geben wird. Aber es gibt kein Gesetz, das vorhersagt, wie oft so etwas passieren wird.

6. Hollywood-Szenarien

In vielen Science-Fiction-Filmen ist die Welt so wie heute, aber mit einem bestimmten neuen Twist. In "Der 200 Jahre Mann" lässt sich Richard Martin, gespielt von Sam Neill, beim Frühstück von einem sprechenden, humanoiden Roboter bedienen, gespielt von Robin Williams. Dabei liest Richard eine Zeitung. Eine Zeitung! Gedruckt auf Papier! Kein Tablet-Computer, kein Podcast eines Echo-ähnlichen Geräts, keine direkte neuronale Verbindung zum Internet.

Viele KI-Experten und ihre Kritiker haben eine ähnlich beschränkte Vorstellungskraft – vor allem jene, die vorhersagen, dass künstliche Intelligenz außer Kontrolle geraten wird. Sie ignorieren, dass sich die Welt erheblich verändert haben wird, bis wir in der Lage sind, solch intelligente Geräte zu bauen.

Die bösen Super-Intelligenzen, die uns loswerden wollen, werden uns nicht überraschen. Lange vor ihnen wird es etwas weniger intelligente, etwas weniger aggressive Maschinen geben. Und davor lästige, arrogante oder unfreundliche Geräte. Wir werden unsere Welt entsprechend anpassen.

Ich sage nicht, dass es keine Herausforderungen geben wird. Aber sie werden nicht so plötzlich und unerwartet kommen, wie viele denken.

7. Geschwindigkeit der Verbreitung

Software-Updates werden in einigen Branchen sehr häufig verbreitet. Dies funktioniert, weil die Grenzkosten dafür sehr, sehr nahe bei null liegen. Der Einsatz neuer Hardware verursacht dagegen erhebliche Grenzkosten. Viele der Autos, die wir heute kaufen, werden im Jahr 2040 wahrscheinlich immer noch unterwegs sein. Und wenn wir heute ein neues Haus bauen, können wir damit rechnen, dass es über 100 Jahre alt wird. Dies bedeutet eine eingebaute Grenze dafür, wie schnell sich selbstfahrende Autos oder Smart Homes verbreiten werden.

Die Investitionskosten halten Hardware lange Zeit intakt. Die U.S. Air Force fliegt zum Beispiel immer noch B-52H-Bomber. Die letzten davon wurden 1962 gebaut. Nach aktuellem Stand sollen diese Flugzeuge noch mindestens bis 2040 fliegen – man spricht sogar von einer Verlängerung ihres Einsatzes auf 100 Jahre.

In Fabriken überall auf der Welt stoße ich regelmäßig auf jahrzehntealte Maschinen – zum Beispiel PCs, auf denen Windows 3.0 von 1990 läuft. Die Denke dahinter lautet: "Wenn's nicht kaputt ist, reparier's nicht." Und selbst die modernsten Anlagen werden noch von Speicherprogrammierbaren Steuerungen (SPS) kontrolliert.

Diese wurden 1968 eingeführt, um elektromechanische Relais zu ersetzen. Man programmiert sie, als wären sie ein Netz aus 24-Volt-Relais.

Immer noch. Um den Informationsfluss zu ändern, braucht man meist viele Wochen und ganze Beraterteams. Einer der großen Hersteller hat mir kürzlich verraten, dass er eine Frequenz von drei Software-Upgrades in 20 Jahren anstrebt.

Im Prinzip könnte es auch anders funktionieren. In der Praxis tut es das aber nicht. Selbst Tesla sucht derzeit nach SPS-Experten für seine Fabrik. Also wird die Herstellung des intelligentesten Autos aller Zeiten weiterhin von Relais-Emulationen gesteuert.

Viele Experten glauben, dass die Welt bereits digital ist und dass die Einführung neuer KI-Systeme sofort bis zum Design, zur Fabrikhalle und zur Lieferkette durchsickert. Nichts ist weiter von der Wahrheit entfernt. Fast alle Innovationen in der Robotik und KI brauchen viel, viel länger, um sich durchzusetzen, als die Leute sich das vorstellen.

(bsc)