zurück zum Artikel

Die neue Intelligenz

Tom Simonite

Seit Jahren arbeiten Forscher weltweit an Computern, die nach dem Vorbild biologischer Gehirne aufgebaut sind. Jetzt müssen diese Chips zeigen, was sie wirklich können.

Seit Jahren arbeiten Forscher weltweit an Computern, die nach dem Vorbild biologischer Gehirne aufgebaut sind. Jetzt müssen diese Chips zeigen, was sie wirklich können.

Stellen Sie sich eine Maschine vor, die diese Zeilen liest. Eine solche Maschine aus Metall, Kunststoff und Silizium braucht ungefähr 50 Watt elektrischer Leistung, während sie die Information in Nullen und Einsen verwandelt. Nun stellen sie sich einen Menschen bei der gleichen Aufgabe vor. Sein klebriger Klumpen aus Eiweiß, Salz und Wasser in seinem Schädel benötigt nur einen Bruchteil dieser Energie, um nicht nur das Muster als Buchstaben, Wörter und Sätze zu interpretieren, sondern gleichzeitig das im Radio gespielte Lied zu erkennen. Der Vergleich macht die Kluft deutlich, die immer noch zwischen Mensch und Maschine liegt. Es gibt zwar Computer, die ein dem Menschen vergleichbares Textverständnis besitzen, doch sie sind riesig, energiehungrig und benötigen eine spezielle Programmierung.

Nun jedoch soll eine neue, mehr wie das menschliche Gehirn arbeitende Generation von Computerchips diese Kluft verkleinern. Fortschritte in den Neurowissenschaften und der Chiptechnologie ermöglichen Geräte, die – zumindest im kleinen Maßstab – Daten so verarbeiten wie das Gehirn eines Säugetiers. Solche "neuromorphen" Chips könnten sich als fehlendes Puzzleteil für so manches vielversprechendes, aber unvollendetes Projekt der künstlichen Intelligenz erweisen – etwa autonom fahrende Autos oder Smartphones als kompetente Gesprächspartner.

"Moderne Computer stammen von Taschenrechnern ab und eignen sich vorwiegend als Zahlenfresser", sagt Dharmendra Modha, der eine entsprechende Forschungsgruppe am Almaden Research Center von IBM in Kalifornien leitet. Er will Computerchips mit einer an das Säugetierhirn angelehnten Architektur entwerfen. Immerhin 100 Millionen Dollar stecken die Defense Advanced Research Projects Agency (Darpa) und das US-Verteidigungsministerium in das Projekt. Dessen Name ist Programm: "Synapse" ist angelehnt an die Verbindungen zwischen den Nervenzellen, eines der wesentlichen Elemente menschlicher Signalverarbeitung.

Wer Modha besuchen will, muss nach San Jose in Kalifornien. Vom Stadtrand aus windet sich die Straße zu seinem Labor zwei Meilen eine Anhöhe hinauf. Der Weg ist mit Magnolien gesäumt, das Labor selbst liegt inmitten fast 1000 Hektar sanft geschwungener Hügel. Das Silicon Valley ist nah, aber nicht direkt vor der Haustür. Womöglich ist hier der ideale Ort, um die Grundfesten der Computer-Industrie zu erschüttern.

Alle heutigen Modelle, ob Smartphone oder Supercomputer, beruhen auf der sogenannten Von-Neumann-Architektur, benannt nach dem ungarischen Mathematiker John von Neumann. Ihre Grundlagen sind im Prinzip zwei Baugruppen: Zentraleinheit oder CPU und Arbeitsspeicher. Letzterer speichert die Daten sowie Instruktionen, wie sie zu manipulieren sind. Die CPU holt sich diese Instruktion aus dem Arbeitsspeicher zusammen mit den zu verarbeitenden Daten. Das Ergebnis schickt sie zurück in den Arbeitsspeicher, der Zyklus wiederholt sich. Die Prozesse laufen also linear ab.

Das Gehirn dagegen arbeitet parallel. Eintreffende Informationen zünden Salven elektrischer Erregung, die sich mittels Synapsen über Nervenzellen hinweg ausbreiten. Die Wörter dieses Absatzes erkennen Sie beispielsweise dank eines Musters elektrischer Aktivität, ausgelöst durch Signale aus Ihren Augen. Ein entscheidender Vorteil unserer neuralen "Hardware" ist ihre Flexibilität: Neue Informationen bringen das System dazu, sich anzupassen. Es lernt. Im Computer-Jargon würde man von einem massiv-parallelen System sprechen, das sich selbst umprogrammiert.

"Gehirne haben sich in der realen Welt entwickelt", sagt Dharmendra Modha. Um ihre Arbeitsweise in die Welt des Siliziums zu übertragen, hat IBM seine neuromorphen Chips entwickelt. Sie bestehen aus digitalen Schaltungen von jeweils rund 6000 Transistoren, die das Feuern eines Neurons und die synaptischen Verbindungen zu anderen Neuronen nachbilden. Die Silizium-Neuronen verbindet Modha untereinander zu einem gehirnähnlichen System. Das Prinzip für die Verschaltung lieferten ihm Studien der Hirnrinde: Sie besteht aus verschiedenen Arealen mit unterschiedlichen Funktionen wie zum Beispiel Spracherzeugung oder Bewegungssteuerung. Doch jedes dieser Areale besitzt dieselben Grundbausteine: Einheiten von 100 bis 250 Neuronen, die nach einheitlichen Prinzipien funktionieren.

2011 stellte Modha seine Silizium-Version dieser Grundbausteine erstmals vor. Der Chip in der Größe eines Stecknadelkopfes enthält etwa 256 künstliche Neuronen sowie einen Arbeitsspeicher, in dem die Eigenschaften von bis zu 262.000 synaptischen Verbindungen eingeschrieben sind. Werden diese Synapsen korrekt programmiert, entsteht ein Netzwerk, das auf Informationen etwa so reagiert wie die Neuronen eines biologischen Gehirns.

In einem der Experimente konnte der Chip handgeschriebene Ziffern von 0 bis 9 erkennen und sogar vorhersagen, welche Ziffer eine Person mit einem digitalen Zeichenstift zu schreiben begann. In einem anderen Versuch spielte das Netzwerk des Chips eine Version des Videospiels "Pong". In einem dritten steuerte er eine kleine Flugdrohne so, dass sie der gelben Linie auf der Straße bis zum IBM-Forschungslabor folgen konnte.

All diese Kunststücke ließen sich zwar auch mit konventioneller Software bewerkstelligen. Doch hier war nur ein Bruchteil des Computercodes, des Strombedarfs und der Hardware nötig. Modha testet derzeit die Vorversion eines komplexeren Chips. Er soll zu einer Art rudimentärer Hirnrinde heranwachsen mit insgesamt über einer Million künstlicher Neuronen. Letzten Sommer kündigte IBM außerdem eine neuromorphe Entwickler-Architektur an. Sie basiert auf Codeblöcken, die sich wie ein Baukastensystem zusammenfügen lassen.

Programmierer sollen damit Anwendungen verwirklichen können, ohne sich mit Silizium-Synapsen und -Neuronen herumschlagen zu müssen. Über 150 dieser Bausteine, Corelets getauft, stehen bereits zur Verfügung – für Aufgaben von der Gesichtserkennung in Videos bis zur Unterscheidung der Musik Beethovens und Bachs.

300 Meilen weiter südlich arbeitet die andere Hälfte des Darpa-Projekts an Chips, die das Gehirn sogar noch genauer nachahmen sollen. HRL wurde von Hughes Aircraft als Hughes Research Labs gegründet. Heute ist es ein Joint Venture von General Motors und Boeing. Das Laborgebäude liegt in den Santa Monica Mountains, von dort blickt der Besucher über Malibu. Im Eingangsbereich begrüßt ihn ein Karpfenteich. Die Palmen und Bananenpflanzen erinnern an ein Hotel aus Hollywoods goldener Ära. Eine Plakette erinnert an den ersten funktionierenden Laser, der hier 1960 gebaut wurde.

An Narayan Srinivasas Arbeitsplatz jedoch ist von dieser Schönheit nicht viel zu sehen. Er sitzt in einem fensterlosen Labor. Vor ihm liegt ein unscheinbarer Chip inmitten eines Kabelgewirrs. Seine Aktivität erscheint als Impulsgewitter auf einem Computerbildschirm, das EEG eines Silizium-Hirns. Der HRL-Chip besteht aus 576 künstlichen Neuronen und ist in dieser Hinsicht ganz ähnlich dem von IBM. Aber wie die Neuronen unseres eigenen Gehirns passen sich seine synaptischen Verbindungen an, wenn neue Informationen eintreffen. Mit anderen Worten: Der Chip lernt durch Erfahrung.

Der HRL-Chip ahmt zwei Phänomene des Gehirns nach: Zum einen sind Neuronen unterschiedlich empfänglich für Signale anderer Neuronen – und zwar abhängig davon, wie häufig deren Signale eintreffen. Zweitens reagieren Neuronen bevorzugt auf jene Nervenzellen, deren Signalaktivität über einen gewissen Zeitraum ihrer eigenen ähnelt. Arbeiten Gruppen von Neuronen also konstruktiv zusammen, verstärkt das ihre Verbindungen untereinander. Seltener genutzte synaptische Signalbahnen schwächen sich dagegen ab. Hirnforscher nennen dieses Phänomen "zeitabhängige Plastizität".

Experimente mit simulierten Versionen des Chips haben bereits eindrucksvolle Ergebnisse erbracht. Er spielte eine virtuelle Partie "Pong", obwohl der HRL-Chip gar nicht für das Spiel programmiert worden war. Er konnte nur den Ball erkennen, seinen Schläger bewegen und auf Feedback reagieren, das erfolgreiche Schläge belohnte oder fehlerhafte bestrafte. In den ersten Spielrunden schlug das System von 120 Neuronen zwar wild um sich. Aber bereits nach fünf Durchgängen hatte es sich zu einem geschickten Spieler entwickelt. "Wir programmieren nicht", sagt Srinivasa. "Wir sagen nur 'gut gemacht' oder 'nicht so toll', und es findet selbst heraus, was es tun sollte." Fügten die Forscher weitere Bälle, Schläger oder Gegner hinzu, adaptiert sich das Netzwerk schnell an die Veränderungen.

Die Einsatzmöglichkeiten sind vielfältig. Mit diesem Ansatz könnten Ingenieure beispielsweise einen Roboter erschaffen, der durch eine Art "Kindheit" stolpert und dabei lernt, sich zurechtzufinden. "Sie können den Ereignisreichtum der realen Welt nicht simulieren, daher ist es am besten, wenn das System direkt mit ihr interagiert", so Srinivasa. Dieses Wissen könnte die erste Maschinengeneration dann an die zweite weitergeben – einfach und schnell per Update. Srinivasa plädiert aber dafür, auch den nachfolgenden Robotergenerationen eine gewisse Lernfähigkeit zu lassen. So könnten sie unbekanntes Terrain meistern oder Beschädigungen ausgleichen.

Ein erster echter Test dieser Vision neuromorpher Computer ist für den Sommer geplant. Dann soll der HRL-Chip seinen Labortisch verlassen. In einem handtellergroßen Fluggerät mit schlagenden Flügeln, genannt Snipe, soll er sich in die Lüfte erheben. Ein menschlicher Pilot wird die Drohne ferngesteuert durch Innenräume fliegen, während der Chip Daten der eingebauten Kamera und anderer Sensoren auswertet. An bestimmten Punkten erhält der Chip das Signal "Pass hier auf". Kehrt der Snipe später zurück, soll er per Leuchtsignal melden, dass er den Raum wiedererkannt hat. Mit klassischer Chiptechnologie wäre diese Art der Erkennung zu aufwendig für ein derart kleines Fluggerät.

Sind die Wissenschaftler also auf dem Weg zu einer künstlichen Intelligenz, die diesen Namen wirklich verdient hat? Diese Frage muss trotz erster Erfolge offenbleiben. Denn noch ist unklar, ob sich aus den überschaubaren Systemen mit ein paar Hundert Neuronen komplexe Versionen mit Millionen Nervenzellen bauen lassen. Ob also Maschinen entstehen könnten, die tatsächlich anspruchsvollere Gehirnfunktionen nachahmen.

Der Neurowissenschaftler Henry Markram etwa, Entdecker der zeitabhängigen Plastizität, hat Modhas Arbeit in der Vergangenheit scharf attackiert. Dessen Netzwerke simulierter Neuronen hält er für zu stark vereinfacht. Um die Fähigkeiten des Gehirns erfolgreich nachzuahmen, müssten die Synapsen bis zur molekularen Ebene nachgebildet werden, glaubt Markram. Schließlich würden Dutzende Ionenkanäle und tausenderlei Botenstoffe das Verhalten von Neuronen beeinflussen. Zudem gebe es zahlreiche Typen von Synapsen, die sich zum Teil auch noch recht chaotisch verhielten.

Das Darpa-Team widerspricht. Es sei gar nicht notwendig, die volle Komplexität des Gehirns zu erfassen, um Nützliches zu tun. Vielleicht aber führt der direkte Vergleich mit dem menschlichen Gehirn auch in die Irre. Möglicherweise ist es besser, diese Chips als eigenständig zu akzeptieren. Als eine neue, fremde Form von Intelligenz. Eine allerdings, die uns in Zukunft zur Seite stehen wird. Das zumindest prophezeit Zachary Lemnios, strategischer Forschungsleiter bei IBM. Viele große Unternehmen sähen bereits Bedarf: "Der traditionelle Ansatz – einfach mehr Rechnerkapazität und leistungsfähigere Algorithmen einzusetzen – lässt sich nicht weiter hochskalieren, und das merken wir."

Als Beispiele nennt er Apples persönlichen Assistenten Siri und Googles autonom fahrende Autos. Googles Navigation ist stark von vorher geladenen Kartendaten abhängig, weil die Rechenkapazität im Fahrzeug nicht ausreichen würde, die Umgebung in Sekundenschnelle zu erfassen. Auch für Siri passt die nötige Computerleistung in kein Smartphone. Deshalb greift das Programm zur Spracherkennung und -verarbeitung auf Cloud-Server zurück. Das führt jedoch zu merklichen Verzögerungen.

Mit neuromorphen Maschinen ließe sich diese externe Hilfe minimieren. Ein kompakter Neurochip könnte beispielsweise helfen, Sprache und Bilder zu analysieren. Sinnvolle Antworten wie die von Siri sind auf diesem Weg zwar nicht möglich, weil die Chips auf absehbare Zeit nicht so leistungsfähig sein werden wie Computer in der Cloud. Die Fähigkeiten der Neurochips wären aber immer dort wertvoll, wo ein System sofort reagieren muss oder die Verbindung mit einem Rechenzentrum nicht möglich ist.

IBM spricht bereits mit Kunden, die sich für neuromorphe Lösungen interessieren. Die Auswertung von Überwachungskameras und die Vorhersage von Finanzbetrug stehen hier an vorderster Stelle, weil beide komplexe Lernprozesse und Mustererkennung in Sekundenbruchteilen erfordern.

Nützlich wären diese Fähigkeiten auch für das Militär – die Darpa fördert das Projekt schließlich nicht aus reinem Altruismus. "Neuromorphe Computer sind weder geheimnisvoll noch magisch", sagt Gill Pratt, der bei der Darpa das "Synapse"-Projekt betreut. Anstatt ein Video einer Gruppe von Männern an Hochleistungscomputer zu übertragen, um sie dort auszuwerten, "würde der Chip einfach signalisieren: 'Auf jeder dieser Positionen scheint eine Person zu rennen'", so Pratt. Wie meistens in der Computergeschichte werden also die ersten Systeme dieser Art auch beim Militär eingesetzt. Bei allem technischen Fortschritt gibt es Dinge, die sich einfach nicht ändern. (bsc [1])


URL dieses Artikels:
https://www.heise.de/-2242385

Links in diesem Artikel:
[1] mailto:bsc@heise.de