Im Zeitalter der denkenden Maschinen

Die natürliche Evolution auf unserer Erde bringt seit hunderten Millionen Jahren Nervensysteme wachsender Komplexität hervor.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 17 Min.
Von
  • Klaus Mainzer

Illustration: Mario Wagner

Die natürliche Evolution auf unserer Erde bringt seit hunderten Millionen Jahren Nervensysteme wachsender Komplexität hervor. Sie arbeiten nach den Mechanismen der Biochemie und verleihen ihren Trägerorganismen die Fähigkeiten zu selbstständiger Anpassung, zum Lernen und zu gezielter Veränderung der Umwelt. Doch die Gesetze der Evolution hätten auch ganz andere denkende Lebensformen zugelassen - und haben es anderswo im Universum vielleicht tatsächlich.

So wird erkennbar, dass Menschen und Tiere nur Spezialfälle intelligenter Systeme sind, die sich auf dieser Erde mehr oder weniger zufällig unter verschiedenen Nebenbedingungen entwickelt haben. Die Beschränkung intelligenter Systeme etwa auf die Gattung der Primaten käme einem Rückfall in aristotelische Zeiten gleich, als man die Erde in den Mittelpunkt des Kosmos stellte und die Gesetze der Physik darauf beschränkte. Erst mit der kopernikanischen Wende wurde die Wissenschaft wahrhaft universell. Man formulierte Naturgesetze, die überall im Universum gelten sollten.

Nun steht eine kopernikanische Wende in der KI-Forschung an. Gesucht sind allgemeine Gesetze für intelligente Systeme, die unter unterschiedlichen Bedingungen technisch und biologisch realisierbar sind. Wir können nicht erwarten, solche Gesetze von heute auf morgen zu finden. Bis dahin müssen wir uns damit begnügen, den Intelligenzbegriff in Beispielen zu erfassen, bestenfalls in Teiltheorien von künstlichen und natürlichen Systemen. Aber die Suche lohnt sich schon, bevor das Ziel erreicht ist. Denn die Befreiung vom anthropozentrischen Intelligenzbegriff erschließt technische Anwendungen, an die man früher nicht einmal denken konnte. Künstliche Intelligenz ist kein ferner Zukunftstraum. Still und heimlich beginnt sie, unsere Alltagswelt zu durchdringen.

Die traditionelle KI war auf den Menschen fixiert. An seiner Intelligenz maß sie die Leistungen von Computern. Warum diese eindimensionale Sicht? Schließlich simulieren die wenigsten selbst bewegten Maschinen das Laufen auf Beinen, Flugzeuge schlagen nicht wie Vögel mit den Flügeln, und künstliche Sprache hat wenig mit den Vorgängen im menschlichen Kehlkopf zu tun. Der technische Durchbruch gelang erst, als man die Gesetze der Mechanik, Aerodynamik, Elektrodynamik oder der Akustik verstand. Automobile, Flugzeuge oder Stimmensynthesizer lösen ihre Aufgaben mit völlig anderen Mitteln als ihre natürlichen Entsprechungen.

Eine kurze Geschichte der künstlichen Intelligenz

Die KI-Forschung startete mit großen Zielen. Als im Jahr 1956 führende Computerwissenschaftler, Psychologen, Linguisten und Philosophen auf der ersten großen Konferenz über Maschinenintelligenz am Dartmouth College den Begriff "Artificial Intelligence" prägten, glaubten sie einerseits, mit dem Computer endlich ein präzises Modell des menschlichen Denkens gefunden zu haben; andererseits hoffte man, mit Elektronengehirnen bald den Fähigkeiten des biologischen Vorbilds gleichkommen zu können. An den Optimismus der Pionierjahre erinnern noch die Namen der damaligen Projekte, etwa des "General Problem Solver"(GPS) von Allen Newell und Herbert Simon, eines universellen Computerprogramms zur Lösung unterschiedlichster Planungsprobleme. Doch das GPS-Projekt, so intuitiv einleuchtend sein Ansatz auch war, scheiterte an der unüberschaubaren Zahl der möglichen Pläne.

Das anerkannte Kriterium für Intelligenz war damals der Turing-Test: Man erklärte das Verhalten eines Computers für intelligent, wenn es von der entsprechenden Leistung eines Menschen nicht zu unterscheiden war. Inzwischen rechnen Computer zweifellos schneller und genauer als ihre Erbauer und spielen besser Schach - mit dem Fehlermachen hingegen tun sich die Rechenwerke schwer. Denn Menschen irren, täuschen, sind ungenau und geben vage Antworten. Das ist nicht unbedingt ein Mangel, sondern hilft ihnen mitunter, sich in unklaren Situationen zurechtzufinden. Um den Turing-Test zu bestehen, müsste eine Maschine auch solche Reaktionen realisieren.

Auf Skepsis stieß auch der Versuch der klassischen KI, natürlich-sprachliche Kommunikation mit regelbasierten Computerprogrammen nachzuahmen. 1965 stellte Joseph Weizenbaum das Programm ELIZA vor, das den Dialog zwischen einem Psychiater und einer Patientin simulierte. Die Öffentlichkeit war verblüfft: Das Programm schien sich geradezu in die Situation der Patientin einzufühlen. Manche Zeitgenossen suchten sogar Rat und Trost bei ELIZA, obwohl sie die algorithmische Struktur des Programms kannten. ELIZA tut nämlich nichts anderes, als syntaktische Symbollisten in der Programmiersprache LISP abzuleiten; die Regeln sind so gewählt, dass sie umgangssprachlichen Unterhaltungsgewohnheiten entsprechen. Auf bestimmte Schlüsselworte und Satzmuster reagiert ELIZA mit passenden Umstellungen und Einsetzungen. Solch ein simples Symbolverarbeitungssystem könne unmöglich intelligent sein, befand der Philosoph John Searle.

Der nächste Anlauf zum Denkautomaten begann bescheidener. Mitte der 70er Jahre versprach eine neue Generation von KI-Programmen erste praktische Anwendungen: so genannte wissensbasierte Expertensysteme. Das Ziel war, abgegrenztes und überschaubares Fachwissen menschlicher Experten, etwa von Ingenieuren und Ärzten, für den tagtäglichen Gebrauch zur Verfügung zu stellen. Dazu speichern Expertensysteme das Wissen über ein spezielles Gebiet und ziehen in konkreten Situationen automatisch Schlussfolgerungen, um Lösungen oder Diagnosen zu liefern.

In dem ehrgeizigen Projekt CYC (ausgesprochen wie englisch "psyche") wird seit 1984 versucht, das gesamte menschliche Alltagswissen in einem einzigen wissensbasierten System zu erfassen. Als größte Schwierigkeit für CYC und seine Verwandten erwies sich indes gerade jenes Wissen, das uns Menschen nicht der Rede wert ist: Wie soll man die spezielle Wissensbasis des Systems mit dem allgemeinen Hintergrundwissen und den unausgesprochenen Erfahrungen und Daumenregeln verbinden, die Entscheidungen menschlicher Experten wesentlich beeinflussen? Intuitives Know-how, etwa über das richtige Gasgeben und Kuppeln im Auto oder das Ballgefühl beim Fußball, lässt sich kaum durch formale Regeln programmieren.

Evolution als Vorbild der KI

Schon die klassische KI orientierte sich an den Erfolgsrezepten der Natur, die ohne symbolische Wissensrepräsentation auskommen. Eine sich selbst reproduzierende Maschine galt lange Zeit als unmöglich, bis John von Neumann Ende der 50er Jahre mathematisch das Gegenteil bewies. Von Neumann zeigte, dass es für die Selbstreproduktion nicht auf die Art der materiellen Bausteine ankommt, sondern auf eine funktionale Struktur, die eine vollständige Beschreibung ihrer selbst enthält und diese Information zur Schaffung neuer Kopien verwendet.

Die Analogie mit dem Zellverband eines Organismus wird deutlich in von Neumanns Begriff des zellulären Automaten: Man denke sich ein unbegrenztes Schachbrett, auf dem jedes Feld für eine Zelle steht. Jede dieser Zellen lässt sich formal als Automat mit endlich vielen Zuständen beschreiben. Jede Zelle verändert ihren Zustand abhängig von den Zuständen ihrer Nachbarn. Von Neumann wies nach, dass ein sich selbst reproduzierender Automat die Leistungsfähigkeit einer universellen Turing-Maschine haben muss, also prinzipiell jede denkbare Berechnung durchführen kann.

In der präbiologischen Evolution hatten die ersten sich selbst reproduzierenden Makromoleküle und Mikroorganismen wohl kaum den Komplexitätsgrad eines universellen Computers. Daher entwickelte Christopher Langton 1986 einfachere zelluläre Automaten ohne die Fähigkeit universeller Berechenbarkeit, die sich in nachfolgenden Generationen wie Organismen spontan reproduzieren können. Die Forschungsrichtung des "Künstlichen Lebens" (Artificial Life) war geboren.

Wesentliche Aspekte der Evolution lassen sich bereits mit einfachen zellulären Automaten nachspielen. Die Befehle des Automaten werden in einer Binärzahl codiert, die man als Genotyp eines virtuellen Organismus auffassen kann. Der makroskopische Phänotyp solcher virtuellen Organismen zeigt sich in den zellulären Mustern, die bei unterschiedlichen Anfangsbedingungen entstehen. Ein so genannter genetischer Algorithmus steuert die Entwicklung der künstlichen Population: Zufälliger Austausch von 0 und 1 in der Codenummer entspricht einer Mutation, zudem werden Teilstränge verschiedener Codenummern neu kombiniert. In jeder Generation selektiert der genetische Algorithmus die erzeugten Automaten danach, wie gut sie bestimmte Probleme lösen.

Aufgrund von Zufallsmechanismen schaffen genetische Algorithmen Neues und optimieren es. In der Technik haben sie sich bereits bewährt, etwa um Computerprogramme für die Steuerung von Roboterarmen oder Produktionsstraßen zu finden - also gerade für jene Art von performativem Wissen, die so schwierig formal zu fassen ist. Das System wird nicht wie in einem Expertensystem explizit programmiert, sondern in einem evolutionären Prozess erzeugt.

Gehirn als Vorbild der KI

Zelluläre Automaten und genetische Algorithmen lassen sich auf herkömmlichen Computern simulieren. Das gilt im Prinzip auch für die Lernalgorithmen des Gehirns. Der Architektur des Gehirns besser angepasst sind Modelle neuronaler Netze, die ähnlich wie zelluläre Automaten aus komplexen Systemen wechselwirkender Zellen bestehen - in diesem Fall "Neuronen" genannt.

Neuronen erhalten Eingangssignale von anderen Neuronen, mit denen sie durch Synapsen verbunden sind. Im Gehirn lösen Botenstoffe diese Signale aus, die in den Synapsen unterschiedlich stark ausgeschüttet werden. Entsprechend werden die Signale in Modellen neuronaler Netze durch Zahlenwerte gewichtet. Wenn die Summe der eingehenden Signale den Schwellenwert eines Neurons überschreitet, dann feuert das Neuron selbst ein Signal, das wiederum als Input eines anderen Neurons dienen kann. Wie bei zellulären Automaten verändern die Zellen nach lokalen Regeln ihre binären Mikrozustände ("Feuern" oder "Nichtfeuern") und bilden makroskopische Verschaltungsmuster.

Diese Verschaltungsmuster sind die neuronale Grundlage aller motorischen, perzeptiven und kognitiven Leistungen des Gehirns: Nicht das einzelne Neuron denkt und fühlt, sondern der Zellverbund. Dabei bildet das Muster der feuernden und nichtfeuernden Neuronen im Gehirn nur die Maschinen- oder Gehirnsprache der menschlichen Kognition. Damit daraus ein Gefühl, ein Gedanke oder eine Vorstellung wird, bedarf es noch einiger Transformationen, die den Compilerprogrammen für höhere Programmiersprachen ähneln.

Lernalgorithmen neuronaler Netze können nicht nur Muster wiedererkennen, sondern durch Vergleiche selbstständig neue Zusammenhänge entdecken. So kann sich das System auf die immer neuen Situationen einer sich wandelnden Umwelt einstellen, die ein Programmierer unmöglich deklarativ mit Regeln in symbolischer Sprache berücksichtigen kann. Die starr regelbasierten Programme des so genannten Hard Computing eignen sich besonders zur Programmierung von Rechenverfahren und der Simulation logischen Denkens, Planens und Entscheidens.

Dagegen zielt das Soft Computing auf die "präintelligenten" Fähigkeiten des flexiblen und fehlertoleranten Wahrnehmens und Reagierens, die der Mensch mit seinem Sinnes- und Bewegungsapparat realisiert - wobei die technischen Lösungen keineswegs die Natur imitieren müssen. Die wichtigsten Techniken des Soft Computing sind neuronale Netze, Lernalgorithmen und evolutionäre Algorithmen, die präintelligente und prozedurale Aufgaben ohne symbolische Regelrepräsentation bewältigen. Ein weiteres Beispiel für fehlertolerante Informationsverarbeitung ist die Fuzzy Logic.

Bis in die 90er Jahre galten neuronale Netze und zelluläre Automaten nur als Modelle, die letztlich auf die Simulation mit konventionellen Computern angewiesen sind. Die rasante technische Entwicklung von Mikroprozessoren und Sensoren machte es jedoch möglich, sie tatsächlich zu bauen. Offenbar arbeiten menschliche und tierische Gehirne nicht nur auf der digitalen Basis feuernder und nichtfeuernder Neuronen, sondern auch mit analoger Signalverarbeitung von Sensorzellen. Sinnesorgane nehmen stetige Tast-, Wärme-, Schall- oder Lichtreize wahr, die technisch analoger Signalverarbeitung mit Sensoren entsprechen. In manchen Anwendungen übertreffen analoge zelluläre Computer, auf Chipgröße miniaturisiert, die Leistung herkömmlicher Rechner - etwa in der Bildverarbeitung.

KI in der vernetzten Welt

In der Kulturgeschichte haben sich immer raffiniertere Kommunikationssysteme herausgebildet. Nach Trommeln, Rauchzeichen, Morsen und Telefonnetzen kommuniziert der Mensch heute in Computernetzen wie dem Internet. Tatsächlich ähnelt das Internet einem Nervennetz. Es ist ein komplexes, selbst organisiertes Informationssystem - dem inzwischen die Überlastung droht: Die Informationsflut wirkt wie eine Reizüberflutung durch Geräusche, Bilder und andere Sinnesdaten.

Daher wird das Internet als Zentralnervensystem der Informationsgesellschaft intelligente Verfahren zur Informationsfilterung und Informationsbewältigung brauchen, ähnlich wie biologische Gehirne. Um die Schnittstelle mit dem Internet möglichst nutzerfreundlich zu gestalten, sollten diese Verfahren der menschlichen Kommunikationsfähigkeit möglichst nahe kommen. Besonders eignen sich deshalb fehlertolerante und flexible Lern- und Selektionsmethoden, wie sie das Soft Computing bereitstellt.

Ursprünglich war das Internet nichts als ein gigantisches Archiv von Dokumenten, die nur vom menschlichen Benutzer gelesen und verstanden wurden. Übliche Computer filtern diese Dokumente für uns, ohne ihren Inhalt zu verstehen. Wie könnte man Netzdokumente mit Bedeutungen versehen, die nicht nur von Menschen, sondern auch von Computern verstanden werden? Wie wird das Internet intelligent? Tim Berners-Lee, der Miterfinder des World Wide Web, will dieses Ziel ohne aufwendige KI-Verfahren erreichen: Computer sollen die Bedeutung semantischer Daten erkennen, indem sie über Hyperlinks die Definitionen von Kennwörtern und die zu ihrem Kontext gehörenden logischen Schluss- und Verwendungsregeln nachschlagen.

Durch solche semantischen Netze können sie sich den Inhalt buchstäblich selbst erschließen. Die semantische Tiefe, bis zu der ein Computer Bedeutungen versteht, hängt vom Umfang der ergänzten Ontologien ab - ganz wie beim Hintergrundwissen eines Menschen.

Doch selbst mit solchen semantischen Netzen kann kein einzelner menschlicher Benutzer die Informationsflut in komplexen Kommunikationssystemen wie dem Internet bewältigen. Der nächste Schritt sind so genannte Agenten: Computerprogramme, die in den Diensten ihrer Benutzer autonom im Netz agieren. Ein Multi-Agenten-System besteht aus einem Verbund lernfähiger Programme, die sich selbstständig den Wünschen und Zielen eines menschlichen Nutzers anpassen. Schließlich wären ganze Populationen von mobilen Agenten denkbar, die sich in einer virtuellen Evolution im Computernetz entwickeln. So können mobile Suchagenten ihre Fitness verbessern, indem sie an Beispieldokumenten trainieren, um dann zur Auffindung ähnlicher Artikel ins Netz freigelassen zu werden. Agenten, die häufig mit irrelevantem Informationsmaterial aus dem Netz wiederkehren, werden ausgesondert. Erfolgreiche Agenten vermehren sich durch Mutationen und Kombinationen ihrer Merkmale. Nach einigen Generationen können solche KL-Agenten (künstliches Leben) dann genau auf die Suchanfragen eines Nutzers eingehen.

Künstliche Intelligenz steckt also weniger in einem einzigen Computerprogramm als in Verbunden von Programmen. Ähnliches gilt mittlerweile auch für die vernetzte Infrastruktur von Endgeräten, die eine intelligente Nutzerumgebung schaffen. Die Intelligenz entsteht dann durch Interaktion dieser Umgebung mit dem Menschen. Mittlerweile verbreiten sich so genannte Smart Devices mit Leistungen unterhalb des PC und geringem Energieverbrauch in intelligenten Umgebungen unseres Alltags.

Smart Devices sind winzige Prozessoren, die etwa in Weckern, Mikrowellenöfen, Fernsehgeräten, Stereoanlagen oder Kinderspielzeug eingebaut sind. Über Sensoren können sie untereinander oder mit uns telematisch kommunizieren. Sie benötigen kein Computer-Interface mit Maus und Keyboard, sondern nur eine geeignete Benutzeroberfläche, die auf den Zweck des Gegenstands zugeschnitten ist. Eine wichtige Aufgabe der verteilten künstlichen Intelligenz wird es sein, Sprach- und Sprechfunktionen in Arbeits-, Lern- und Lebenswelten als benutzerfreundliche und unaufdringliche Dienstleistung einzubetten.

Ein erster Prototyp dafür ist im interdisziplinären Forschungsprojekt VERBMOBIL des Deutschen Forschungszentrums für Künstliche Intelligenz entstanden. Das VERBMOBIL-System kann gesprochene Sprache erkennen und analysieren, um die Eingabe in eine Fremdsprache zu übersetzen, eine Antwort zu erzeugen und auszusprechen. Es soll künftig über einen Taschencomputer Dialoge führen können, die etwa bei einer Reiseplanung, Hotelreservierung oder Stadtführung oder in Videokonferenzen von Geschäftsleuten entstehen, oder von Maschine zu Maschine mit Sprachsystemen von Autos, Robotern oder ganzen Wohn- und Arbeitsumgebungen kommunizieren.

In der Robotik bietet sich für die verteilte künstliche Intelligenz eine weitere biologische Analogie an: die Schwarmintelligenz einfacher Tierorganismen. An die Stelle der alten Vorstellung von menschenähnlichen Robotern, die kognitive Wissensrepräsentationen auf hohem Niveau von Programmiersprachen entschlüsseln müssen, treten einfache Maschinen, die ohne starre Programmabläufe interagieren. Intelligente Problemlösungen solcher Roboterpopulationen sind Kollektivleistungen. Statt Termitenbögen zu bauen oder Ameisenstraßen zu bilden können Maschinenschwärme in der Industrieproduktion, der Weltraumforschung oder als Gabelstapler in Lagerhallen zum Einsatz kommen.

Das Auto hilft sich selbst

Die Autohersteller werden in Zukunft mit der zunehmenden Komplexität ihrer elektronischen Systeme zu kämpfen haben. Wer die elektronischen Kabelsysteme in Automobilen von ihren Anfängen bis heute betrachtet, erkennt die frappierende Ähnlichkeit mit der Entwicklung der Nervensysteme im Laufe der Evolution. Doch im Unterschied zur Biologie sind übliche elektronische Systeme starr und unflexibel. Kleinste Fehler können das gesamte System zusammenbrechen lassen.

Mehr Robustheit verspricht eine evolutionäre Architektur: Das Nervensystem eines Automobils wie im natürlichen Vorbild in viele autonome Einheiten zerlegt, die sich in einem Selbstorganisationsprozess drahtlos zu Funktionsgruppen zusammenschließen, um kollektiv intelligente Leistungen zu realisieren. Ein Projekt von DaimlerChrysler erprobt die Selbstkonfiguration, Selbstadaption, Selbstdiagnose und Selbstreparatur von evolutionären Elektronikarchitekturen.

Zukunftsperspektiven der KI

Eine abschließende Theorie intelligenter Systeme steht bis heute aus. Das ist aber keineswegs eine Ausnahme in den zeitgenössischen Wissenschaften. Auch in der Physik ist eine vereinigte Theorie der Naturkräfte höchstens in Umrissen erkennbar. Dennoch arbeiten Hochenergiephysiker, Kosmologen und Materialforscher sehr erfolgreich mit Teilen der unfertigen Theorie. Diese Situation entspricht dem Stand der interdisziplinären Erforschung und Entwicklung der künstlichen Intelligenz: Wir wissen, dass Intelligenz etwas mit Lernfähigkeit, Anpassung, Abstraktionsvermögen und schöpferischem Denken zu tun hat, aber auch mit präintelligenten Fähigkeiten des Körpers und sozialer Interaktion.

Um alle diese Facetten in einem Ansatz zusammenzufassen, bedarf es der fachübergreifenden Zusammenarbeit von Computer-, Natur-, Sozial- und Geisteswissenschaftlern. Denn wir brauchen die technischen Fähigkeiten der KI, um eine immer komplexere Welt im Griff zu behalten.

Klaus Mainzer ist Professor für Philosophie und Wissenschaftstheorie an der Universität Augsburg und leitet das dortige Institut für Interdisziplinäre Informatik. Er kooperiert in KI-Projekten mit der Industrie (sma)