Missing Link: Ein Plädoyer wider den KI-Populismus

In der Anfangszeit platzten die Wissenschaftler vor Optimismus: Die Schaffung denkender Maschinen schien nur wenige Jahre entfernt. Dann wurde es etwas still um die KI. Heute setzen wieder viele ihre Hoffnung in die KI-isierung der digitalen Gesellschaft.

In Pocket speichern vorlesen Druckansicht 303 Kommentare lesen
Auge, Künstliche Intelligenz, KI

(Bild: Orlando, gemeinfrei (Creative Commons CC0))

Lesezeit: 13 Min.
Von
  • Timo Daum
Inhaltsverzeichnis

In der Anfangszeit der Künstlichen Intelligenz waren die Hoffnungen noch groß: Die vom berühmten Alan Turing höchstpersönlich gestellte Frage – "können Maschinen denken?" – schien in wenigen Jahren lösbar. So einfach war es dann doch nicht, in den 70er Jahre wurde es im sogenannten KI-Winter sehr ruhig um die Disziplin.

Heute ist Künstliche Intelligenz wieder in aller Munde – ob es um Bilderkennung, die Vorauswahl von Bewerberinnen und Bewerbern, autonom fahrende Autos oder das so genannte social scoring (die Bonitätsprüfung mittels Daten aus sozialen Netzwerken) geht. Alle großen Internet-Konzerne arbeiten fieberhaft an Sprachassistenten, die das next big thing des digitalen Kapitalismus zu werden versprechen. Hier werden jedoch deutlich kleinere Brötchen gebacken. Von denkfähigen Robotern, die mit uns Menschen gleichziehen, ist nicht mehr die Rede.

Gelegenheit, einmal der Geschichte einer kontroversen Disziplin nachzuspüren, die gleich mit einem Marketing-Coup startete und seitdem durchgehend von populistischen Bildern und Vorstellungen geprägt ist. Ein Plädoyer für einen nüchternen Umgang mit datengetriebener Software-Anwendungen.

Ein Beitrag von Timo Daum

(Bild: 

Timo Daum/Fabian Grimm

)

Timo Daum, geboren 1967, Timo Daum ist Physiker, kennt sich mit dem Digitalen Kapitalismus aus, ist Gastwissenschaftler beim Institut für digitale Mobilität und gesellschaftliche Differenzierung in Berlin. Zuletzt ist im Frühjahr 2019 sein Buch "Die Künstliche Intelligenz des Kapitals" bei der Edition Nautilus erschienen.

Können Maschinen denken? Dieser Frage widmete sich Alan Turing in seinem bahnbrechenden und darüber hinaus amüsant zu lesenden Essay "Rechenmaschinen und Intelligenz" aus dem Jahre 1950 (Alan M. Turing, Computing machinery and intelligence. Mind, 59, (1950). 433-460). Gleich im ersten Absatz gibt er die passende Antwort auf die Frage: das sei "absurd"!

Warum? Weil die Begriffe Maschine und Denken an sich schon so dehnbar seien, dass viel mehr als eine akademische Diskussion nicht zu erwarten sei. Turing verwirft den Versuche, einer Definition und schlägt stattdessen ein Imitationsspiel vor, das ein eindeutiges Ergebnis auf die Frage, ob eine Maschine intelligent sei oder nicht, zu liefern in der Lage sei: Der berühmte Turing-Test der Künstlichen Intelligenz.

Beim Turing-Test kommuniziert eine Person (Jury) über einen Chat mit einem Menschen und mit einem Computer parallel. Beide versuchen, die Jury in endlicher Zeit zu überzeugen, menschlich zu sein. Gelingt es dem Computer, zu einem gewissen Prozentsatz als Mensch durchzugehen, spricht Turing diesem Computer Intelligenz zu: Er hat das Imitationsspiel gewonnen.

Es geht Turing hier um zweierlei. Erstens darum, sich von jedem Essenzialismus zu lösen und die Frage abzukoppeln vom biologischen Substrat. Und zweitens die Beantwortung der Frage gleichzusetzen mit dem erfolgreichen "So-tun-als-ob". Es geht ihm nicht um eine wir auch immer geartete echte Intelligenz. Das erfolgreiche Vorspiegeln derselben ist hinreichend – ein performativen Intelligenz-Begriff.

Alan Turing selbst wagte eine Prognose: Er schätzte die Speicherkapazität des menschlichen Gehirns auf 1010 bis 1015 Bit, der damals noch ganz jungen digitalen Speichereinheit; Computer mit 107 Bits schienen zum Zeitpunkt der Veröffentlichung in Reichweite zu sein: "Es sollte mich überraschen, wenn mehr als 109 [Bits] erforderlich wären, um das Imitationsspiel befriedigend zu spielen (Beachte: die Kapazität der Encyclopaedia Britannica beträgt 2 × 109)."

Mehr Infos

Weiterführendes:

  • Alan M. Turing, "Computing machinery and intelligence. Mind, 59, (1950). 433-460
  • J. McCarthy, M. L. Minsky, N. Rochester, C. E. Shannon: "Dartmouth Summer Research Project on Artificial Intelligence", 31.8.1955
  • Joseph Weizenbaum, Die Macht der Computer und Die Ohnmacht der Vernunft. Suhrkamp, Frankfurt am Main 1977
  • Joseph Weizenbaum, Über Computer, Prognosen und Sprache, in: Ad Libitum: Sammlung Zerstreuung, Volk und Welt. Berlin: Volk und Welt, 1990
  • Levesque, Hector J., Common sense, the Turing test, and the quest for real AI. Cambridge, Massachusetts: MIT Press, 2017
  • Kaplan, Jerry, Guido Lenz, Künstliche Intelligenz. Frechen: mitp Verlags GmbH & Co. KG, 2017.

Der erste algorithmische Schachweltmeister (IBMs Deep Blue) verfügte 1996 über 36 Knoten à 1010 Bit, jeder handelsübliche Laptop verfügt heutzutage über Arbeitsspeicher mit ca. 1011 Bit. Und doch sind Computer weit davon entfernt, mehr als ganz konkrete Aufgaben bewältigen zu können, noch keiner hat den Turing-Test bestanden geschweige denn ansatzweise die Vorstellung von menschenähnlichen Denkfähigkeiten auch nur ansatzweise simulieren können.

Als Turing seinen Test erfand, war der Begriff Künstliche Intelligenz noch gar nicht erfunden. Das besorgte ein paar Jahre später der amerikanische Mathematiker John McCarthy. Um Geldgeber für ein von ihm geplantes Sommerlager von Mathematikern zu gewinnen, erfand er den Begriff, der sich als genialer Marketing-Coup erweisen sollte: artificial intelligence. Anlässlich dieses historischen Ereignisses lieferte er gleich eine Definition mit: "Die Herstellung einer Maschine, die sich auf eine Art und Weise verhält, die wir intelligent nennen würden, wenn ein Mensch sich so verhielte." Auch hier begegnen wir dem ergebnisorientierten Kalkül à la "entscheidend ist, was hinten rauskommt." (Helmut Kohl) wieder.

McCarthy bekam sein Geld und das "Dartmouth Summer Research Project on Artificial Intelligence" konnte stattfinden – "im Wesentlichen eine ausgedehnte Brainstorming-Session", so jedenfalls der amerikanische KI-Spezialist und Autor Jerry Kaplan.

Bis heute müssen wir uns nun mit dieser problematischen Wortschöpfung herumschlagen. Auch McCarthys Definition ist nicht sehr präzise, geschweige denn wissenschaftlich: Erstens bemüht sie einen Vergleich mit menschlichem Verhalten bzw. unserer Haltung zu diesem: Was Intelligenz überhaupt sein soll, wird immer noch kontrovers diskutiert. Und zweitens sagt McCarthys Definition nichts über Struktur oder Funktionsweise aus. Definierten wir analog z.B. einen Motor als etwas, das stinkt und ein Auto bewegen kann, würde uns das nicht zufriedenstellen – es enthält keine Aussagen über das Wesen bzw. das Funktionsprinzip des Motors.

Die Initiatoren gingen von der Annahme aus, dass "jeder Aspekt des Lernens oder jeder anderen Manifestation von Intelligenz letztlich so genau beschrieben werden kann, dass er auf einer Maschine simulierbar ist". Das Programm des Symposiums war sehr ambitioniert: "Es wird versucht herauszufinden, wie man Maschinen dazu bringt, Sprache zu benutzen, Abstraktionen zu bilden, Konzepte zu entwickeln, Probleme zu lösen, die bisher Menschen vorbehalten waren und wie man sie dazu bringt, darin besser zu werden," schreiben die Autoren in die Beschreibung des Forschungsvorhabens.

Optimismus pur zu Zeiten der "guten alten KI", wie Hector J. Levesque die euphorische Frühzeit der KI-Forschung nennt – viel mehr als das Schlagwort selbst kam bei dem Mathematiker-Sommercamp allerdings nicht heraus…

(Bild: Johnnie Shannon )

Zehn Jahre später schuf der in Berlin geborene Joseph Weizenbaum das berühmte Eliza-Programm und damit den ersten Chatbot der Computergeschichte. Er nannte ihn in Anlehnung an Eliza Doolittle aus "My Fair Lady" Eliza. Weizenbaum war jüdische Abstammung, seine Familie floh vor den Nazis nach Amerika, wo er früh an Computerprojekten mitarbeitete, gilt als einer der Gründerväter der KI-Disziplin und hat sich als einer der ersten mit machine learning beschäftigt, also der Fähigkeit von Maschinen, Handlungen auszuführen, ohne explizit dafür programmiert worden zu sein.

"Meine Idee war, dass mein Sprach-Analyse-Programm in seiner sprachlichen Ausdrucksweise immer besser, also differenzierter, genauer und raffinierter werden würde, genau wie die Blumenverkäuferin aus dem Musical, unter der Anleitung ihres Lehrers Professor Higgins. Mein Eliza-Programm war als eine Art Zwei-Bänder-Anordnung angelegt." Auf der einen Seite der Algorithmus und auf der anderen Seite die vom jeweiligen Gesprächspartner gelieferten Daten. Das Programm konnte natürliche Sprachen "verstehen", sprich: Texteingaben verarbeiten und in Textform (auf Englisch) beantworten, der entsprechende Fachbegriff dafür lautet natural language processing.

Das von Weizenbaum 1966 am MIT entwickelte Programm funktioniert recht simpel, enthält aber schon die wesentlichen Elemente sämtlicher KI-Anwendungen. Er entwickelte zunächst ein Skript für eine Psychoberatung, das er folgendermaßen beschrieb: "Da waren zwei Gesprächsteilnehmer, der Mensch und der Computer. Der Mensch tippte seinen Gesprächsbeitrag in die Tastatur des Computers – damals nannte man es eine Schreibmaschine, die an einen Computer angeschlossen war – und mit Hilfe meines Programms analysierte der Computer diese Aussage und erzeugte eine Antwort, die über die Schreibmaschine ausgedruckt wurde."

Joseph Weizenbaum, Pionier der Künstlichen Intelligenz und gleichzeitig ihr größter Kritiker, zutiefst humanistischer Computer-Pessimist und amüsanter Erzähler, war überrascht über die Reaktionen auf sein Programm. Er beobachtete, dass sich die Nutzerinnen und Nutzer rasch auf das therapeutische Setting einließen, ja sogar begannen, emotionale Beziehungen zu Eliza aufzubauen: "Einmal führte meine Sekretärin eine Unterhaltung mit ihm; sie hatte seit Monaten meine Arbeit verfolgt und mußte von daher wissen, daß es sich um ein bloßes Computerprogramm handelte. Bereits nach wenigen Dialogsätzen bat sie mich, den Raum zu verlassen." (Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, Suhrkamp, Frankfurt am Main 1977)

Die Frage, ob wir ein Computerprogramm für intelligent halten oder nicht, scheint also eher mit uns selbst zu tun zu haben als mit dem fraglichen Programm und dessen Fähigkeiten oder Komplexität. Weizenbaum hat das klar erkannt: die "Reaktionen auf Eliza haben mir deutlicher als alles andere bis dahin Erlebte gezeigt, welch enorm übertriebenen Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, von der es nichts versteht", schrieb er seinerzeit.

Auch maschinelles Lernen, ein weiterer Slogan, der den derzeitigen Schwerpunkt der KI-Forschungen und Anwendungen derzeit ausmacht – von den digitalen Sprachassistenten bis hin zur Software für Autonomes Fahren, überall ist machine learning im Spiel – ist ein trügerischer Begriff. Maschinelles Lernen unterscheidet sich stark von der Art und Weise, wie wir Menschen lernen. Das Training mit vielen Daten, das hier zum Einsatz kommt, ist nicht zu vergleichen mit dem schwammartigen Aufsaugen von Information, deren Rekombination und Abstraktion, die wir von uns selbst kennen. Maschinelles Lernen ist demgegenüber ein mühseliger Prozess, erfordert viel Vorbereitung durch menschliche Forscher oder Ingenieurinnen, spezielle Programmierung und spezielle Trainingsdatensätze.

Wenn wir hören, dass ein Computer den Weltschachmeister (1997) oder einen der weltbesten Go-Spieler (im Jahr 2016) schlagen kann, neigen wir dazu, zu glauben, dass sie das Spiel "spielen", wie es ein Mensch es tun würde. Diese Programme haben aber keine Ahnung, was überhaupt ein Spiel ist. Sie sind zwar besser im Spiel, stellen sich aber gleich wieder ganz blöd an, sobald man die Regeln ein wenig ändert. Für einen Menschen ist das kein Problem, die KI kann ihr gesamtes Deep Learning hingegen in die Tonne treten und muss wieder ganz von vorne anfangen …

Wir neigen also dazu – daran hat sich seit Weizenbaums Eliza nichts geändert – emotional auf technische Neuerungen zu reagieren: von "ach wie süß" über "so intelligent sind die schon" bis hin zu "Kollege Roboter macht uns arbeitslos" oder "wann übernehmen die Maschinen die Kontrolle" reicht dabei die Spannweite der Reaktionen. Dies wird von den Marketing-Abteilungen der Hersteller, Forschungsinstitutionen und Softwarefirmen ausgenutzt. Diese sind geschult darin, uns gezielt mit Bildern und Metaphern in die Irre zu führen, uns bei unserer Infantilität zu erwischen, um Emotionen zu erzeugen.

(Bild: Gerd Altmann, gemeinfrei )

Wenn also Boston Dynamics ihre Tieren nachempfundenen Militär-Roboter vorstellen, wenn die Firma Paro die niedliche Robbe vorstellt, die zur Pflege und zum Zeitvertreib von Senioren gedacht ist, dann steckt im Design auch immer das Kalkül, uns bei unseren Emotionen zu packen. Auf der einen Seite sind wir schnell bereit, einzelne Meldungen als Sensationen und Durchbrüche zu sehen. Aber auch auf der anderen Seite sind wir für düstere Szenarien empfänglich, ein wohliger Schauer läuft uns über den Rücken, wenn wir etwa über "die dunkle Macht der Algorithmen" lesen.

Der tatsächliche Funktionsumfang, mögliche Einsatz-Szenarien und anvisierte Geschäftsmodelle geraten aus dem Blick. Die emotionalen Reaktionen verschleiern nur die Funktionsweise einerseits, und die Zielsetzungen der Meister der Algorithmen und Roboter andererseits: meistens private Firmen, die bestimmte Geschäftsmodelle im Blick haben oder ganz schlicht, wie dereinst John McCarthy auf Fördergelder hoffen. Ich nenne das KI-Populismus.

Wenn wir über Künstliche Intelligenz reden, hantieren wir mit einem schwer zu fassenden Begriff. Und zudem schwingt der Vergleich mit dem Menschen und seinen geistigen Fähigkeiten immer mit. Daher möchte ich zweierlei vorschlagen: Wir sollten nicht über künstliche Intelligenz sprechen, wenn von Software die Rede ist, die für spezifische Situationen programmiert ist.

Außerdem schlage ich vor, dass wir die Diskussion darüber, ob oder wie intelligent ein Algorithmus oder eine Maschine sind, nicht führen. Sondern uns stattdessen fragen, welche Aufgaben sie auf welche Weise und in welchem Maß erfolgreich bewältigen können. Wozu dienen sie, wie gut lösen sie eine bestimmte Aufgabe? Und wir sollten auch immer fragen: Wem gehören sie, wer will uns was verkaufen und was macht das mit uns?

Vielleicht nennen wir es einfach anders, z.B. Software 2.0? Dann werden Eliza, Deep Blue oder Watson plötzlich zu etwas ganz und gar Irdischem. Genauso wie Blitz und Donner das Magische verlieren, sobald ihre wissenschaftliche Erklärung bekannt ist, genauso entmystifiziert das Verständnis, wie eine gegebene Software oder ein Automat die ihm aufgetragenen Aufgaben löst, eben diese, egal ob es sich bei der gelösten Aufgabe um eine einfache Rechnung, um das Steuern eines Fahrzeugs oder das Führen eines Gesprächs in natürlicher Sprache handelt. (jk)