"Ich habe ein schlechtes Gewissen"

KI-Forscher entwickeln autonome Autos, forschen an Bilderkennung – und ermöglichen Automatisierung und Überwachung. Raul Rojas ist einer der anerkanntesten Experten auf dem Gebiet. Nun fürchtet er den Fortschritt.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Lesezeit: 9 Min.
Von
  • Raúl Rojas

KI-Forscher entwickeln autonome Autos, forschen an Bilderkennung – und ermöglichen Automatisierung und Überwachung. Raul Rojas ist einer der anerkanntesten Experten auf dem Gebiet. Nun fürchtet er den Fortschritt.

Raul Rojas (59) leitet an der Freien Universität Berlin den Bereich Intelligente Systeme und Robotik. Der gebürtige Mexikaner entwickelte Deutschlands erstes autonom fahrendes Auto, das seit 2011 auf den Straßen von Berlin unterwegs ist.

Am Anfang war der Traum. Im Laufe der dreißiger und vierziger Jahre des vorigen Jahrhunderts reifte das Zeitalter des Computers. Die Schöpfer der ersten Rechenmaschinen begriffen sofort: Wenn ein Automat komplexe Reihenfolgen von Berechnungen bewältigen kann, warum nicht auch das Denken selbst? Bereits Jahre zuvor hatten Mathematiker und Logiker angefangen, die Regeln des Denkens zu systematisieren und in formale Kalküle zu gießen.

Alonzo Church etwa schuf ab 1928 mit dem Lambda-Kalkül die Basis für all das, was wir heute funktionale Programmiersprachen nennen. Alan Turing erfand 1936 die nach ihm benannte Maschine, um die Frage zu beantworten, ob es ein mechanisches Verfahren gäbe, das die Sätze der Mathematik automatisch ableiten kann. Wäre es so, könnte man statt Mathematikern Maschinen einstellen.

Nun haben wir den Albtraum: Maschinelle Verfahren werden verwendet, um die Weltbevölkerung in einem bis heute unbekannten Ausmaß zu überwachen. Maschinen ersetzen Menschen in Bereichen, die man noch vor einigen Jahren als nicht automatisierbar einstufte. Meine E-Mails werden täglich gelesen, nicht von anderen Menschen, sondern von Programmen, die auf Stichworte reagieren – also Programme, die schlau genug sind, um Verknüpfungen herzustellen, gleichzeitig aber zu dumm sind, einen Witz von einer Bedrohung zu unterscheiden.

Die Bevölkerung shoppt heiter online im eigenen Wohnzimmer, während die klassischen Läden einer nach dem anderen schließen. Wir sind schon fast beim "reibungslosen Kapitalismus" angekommen, der Zukunftsvision, die Bill Gates in seinem Buch "Der Weg nach vorn" skizziert.

Ich arbeite schon seit mehr als dreißig Jahren an Problemen der KI. Ich habe verschiedene Forschungswellen erlebt: die Euphorie bei den ersten Expertensystemen, die angebliche japanische Bedrohung durch die als wirklich intelligent angekündigten Computer der "Fünften Generation", die Niederlage von Schachweltmeister Garry Kasparov gegen Deep Blue von IBM, die Entstehung von Automatisierungssystemen sogar in der Landwirtschaft und bei den Winzern.

Den Traum, Intelligenz zu verstehen, haben wir immer noch vor Augen wie zur Zeit Turings. Aber der Albtraum wird zunehmend augenfällig: eine Gesellschaft, die punktuell von "intelligenten" Computern überwacht und beherrscht wird. Ich habe mittlerweile ein schlechtes Gewissen – nicht aufgrund der Arbeit, die ich in den vergangenen Jahrzehnten gemacht habe. Sondern aufgrund der Folgen, die sie nach sich zieht.

Zwei Seelen haben schon immer in der Brust der Informationstechnologie gewohnt. Noch bevor es Computer gab, wurden Hollerith-Systeme eingeführt, um etwas so Banales wie einen Zensus zu organisieren. Der Missbrauch kam schleichend. Das Meldewesen in Deutschland beispielsweise wurde ab 1933 vereinheitlicht und mit der "Reichsmeldeordnung" von 1938 standardisiert.

Ziel war es, für jeden Einwohner eine Lochkarte mit allen wesentlichen Daten zu haben. Alle Ämter sollten Planungssicherheit bekommen, darunter auch das Militär und die Verantwortlichen zur Durchsetzung der Rassengesetze. Die Computerfirma IBM hat mit den deutschen Behörden bis zum Eintritt der USA in den Zweiten Weltkrieg bei solchen Vorhaben zusammengearbeitet.

Die positive Seite ist immer die grenzenlose Zuversicht gewesen, mithilfe der Computer das jahrhundertealte Rätsel nach dem Wesen der Intelligenz zu beantworten. Wie funktioniert das Gehirn, wie entstehen Gedanken? Das waren die Fragen, die Alan Turing oder John von Neumann brennend interessierten. Wir wissen zwar nicht, wie das Gehirn funktioniert, aber wir würden viel darüber lernen, könnten wir ein künstliches Gehirn bauen.

Programmatisch wollten KI-Forscher also schon immer den Himmel stürmen. Praktisch blieben sie jedoch mit den Füßen am Boden. Ihnen wurde im Laufe der Jahre klar, dass die interessanten Probleme der KI nicht solche sind, wo viel Nachdenken notwendig ist, etwa der Beweis von mathematischen Sätzen oder das Schachspiel. Für diese Probleme können wir uns beim Denken selber beobachten, um danach Regeln für den Computer aufzustellen. Wirklich spannend ist, jene menschlichen Fähigkeiten digital zu reproduzieren, die bei uns völlig unbewusst ablaufen. Gesichter erkennen wir in Bruchteilen von Sekunden und verstehen unsere Muttersprache fließend. Wir wissen aber nicht, wie wir es tun.

Handlungen, Intentionen und Emotionen von Menschen zu erkennen, ist immer noch ein blinder Fleck bei jedem Computer. Trotz fast sieben Jahrzehnten Forschung kann noch kein Computer eine Tasse von einem Stuhl mit Sicherheit unterscheiden. Doch neuerdings sind mit dem Big-Data-Ansatz partielle Erfolge erzielt worden.

Paul Viola und Michael Jones haben gezeigt, wie sich aus Tausenden von Operatoren für die Gesichtserkennung die besten systematisch herausdestillieren lassen. Wir wissen, wie wir Klassifikatoren für das Herausfinden von ähnlichen Bildern in einer Datenbank erzeugen können, indem der Computer die Aufgabe statistisch lernt. Rechner können mittlerweile auch recht lesbare Übersetzungen anfertigen. Sie verstehen den Text überhaupt nicht, wenn aber Millionen von Textfragmenten aus beiden Sprachen in Korrespondenz gebracht werden, können sie Regularitäten ausnutzen.

Doch es ist der Fluch der KI, dass bei jeder partiellen Lösung eines Problems jemand parallel überlegt, wie diese neue Computerfähigkeit zur sozialen Kontrolle verwendet werden kann. Wenn der Computer Texte übersetzen kann, ist es einfacher, E-Mails aus aller Welt zu lesen. Wenn der Computer ähnliche Muster identifizieren kann, kann ich vielleicht Verdächtige allein aus ihren Daten herausfiltern. Deswegen wären Selbstmordattentäter, die eine Lebensversicherung kaufen, nicht irrational, argumentiert Steven Levitt in seinem Buch "Freakonomics". Mit diesem Trick würden sie aus dem statistischen Profil eines Täters und damit aus der Rasterfahndung herausfallen.

Wir nähern uns einer Zukunft, in der niemand unerkannt in einer Stadt unterwegs sein kann. In London wird man von Dutzenden privater und öffentlicher Kameras fotografiert, sobald man den Fuß auf die Straße setzt. Die Aufnahmen können tagelang gespeichert und die Laufwege durch Gesichts- oder Personenerkennung offline bearbeitet werden (wenn nicht das Handy schon alles verraten hat). Die Aufnahmen und deren Verknüpfung mit zusätzlichen Daten werden zunehmen.

Da die Definition von "gesetzeswidrig" manchen despotischen Regierungen überlassen bleibt, ist das keine sonnige Aussicht. So wie in "Minority Report" werden potenzielle Täter heute gefasst, bevor sie überhaupt zur Tat schreiten können. Mit dieser Argumentation jedenfalls rechtfertigt die NSA ihre umfassende globale Überwachung.

Das ist der eine Grund für mein schlechtes Gewissen. Der andere: Viele KI-Forscher sind ab den achtziger Jahren in die Robotik eingestiegen, weil der Top-down-Ansatz an seine Grenzen kam. Intelligenz kann nicht "verordnet" werden, Intelligenz entsteht in einem Entwicklungsprozess. Für Rodney Brooks bildet den Schlüssel zu dieser Entwicklung ein Computer mit einem Körper, also ein Roboter, der durch direkte Interaktion mit der Umwelt lernt. Deswegen spielen unsere Kreationen Fußball oder fahren autonom durch die Straßen. Als Folge ersetzen sie in Fabriken mehr und mehr Arbeiter. Langsam stellt sich die Frage, ob wir eine industrielle Revolution angestoßen haben, die anders ist als die vorherigen.

Bei allen früheren industriellen Revolutionen konnten Arbeitsplätzen in neuen Branchen entstehen, obwohl Maschinen Arbeiter ersetzt haben. Wir haben aber heute ein Tempo der Automatisierung erreicht, das beispiellos in der Geschichte ist. Man redet heute, auch unter Mainstream-Ökonomen, von einem Race against the Machine. Man denke allein an das Homebanking: Wir freuen uns darüber, am Computer Überweisungen tätigen zu können. Die Bankfiliale betritt man kaum: ein Geldautomat ist alles, was nötig ist.

In Deutschland haben die Banken in den letzten zehn Jahren 30 Prozent der Arbeitsplätze abgebaut. Die Bilanzsummen sind im gleichen Zeitraum um 30 Prozent gestiegen. In den USA schließen die meisten Buchläden, da Amazon sich langsam zum virtuellen one stop store entwickelt. In allen Metropolen der Industrieländer sind Industriearbeitsplätze abgebaut worden. In den alten "Industriekathedralen" entstehen Tagungs- oder Begegnungszentren.

Das Problem ist das Tempo. Innovationen entstehen in rasanter Geschwindigkeit und werden ebenso hastig übernommen. Amazon robotisiert alle seine Lagerhallen und hat dafür eigens eine Robotikfirma für Logistik eingekauft. Wie schnell die deplatzierten Arbeiter sich umschulen können, ist ungewiss.

Das ist das Paradoxon für mich als KI-Forscher: Ich fühle mich immer noch am Anfang des Weges, was die Enträtselung der Intelligenz angeht. Aber mir wird mittlerweile schwindelig, wenn ich sehe, wie schnell Roboter die Arbeiter in der Fabrik ersetzen. Wir sollten innehalten und uns die Sache in Ruhe überlegen. Ich weiß, dass unter den Bedingungen des Weltmarkts dafür keine Zeit bleibt. Trotzdem wäre ein sozial-technisches Moratorium, wie die Gewerkschaften es manchmal verlangen, nicht nur unerwünschte Reibung im System – sondern eine Möglichkeit, in einer Welt der Hyperproduktivität die Zukunft der Arbeit, und zwar für alle, erneut zu thematisieren. (bsc)