Missing Link: Stephen Wolfram über die Rolle der KI in der Forschung (Teil 1)

Seite 7: KI in der nicht-menschlichen Welt

Inhaltsverzeichnis

Im ursprünglichen Konzept ging es bei KI darum, künstliche Analoga menschlicher Intelligenz zu entwickeln. Und tatsächlich sind die jüngsten großen Erfolge der KI – etwa in der visuellen Objekterkennung oder Sprachgenerierung – alle darauf ausgerichtet, künstliche Systeme zu haben, die das Wesen dessen reproduzieren, was Menschen tun. Es geht nicht darum, dass es eine präzise theoretische Definition gibt, was ein Bild zu einem Bild einer Katze im Gegensatz zu einem Hund macht. Wichtig ist, dass ein neuronales Netz zu den gleichen Schlussfolgerungen kommen kann wie Menschen.

Warum funktioniert das? Wahrscheinlich, weil neuronale Netze das Wesen echter Gehirne erfassen. Natürlich sind künstliche neuronale Netze im Detail nicht identisch mit biologischen Gehirnen. Aber in gewisser Weise ist die große Überraschung der modernen KI, dass es offenbar genug Universalität gibt, um künstliche neuronale Netze funktionell ähnlich wie menschliche Gehirne agieren zu lassen, zumindest wenn es um Dinge wie visuelle Objekterkennung oder Sprachgenerierung geht.

Aber was ist mit Fragen in der Wissenschaft? Auf einer Ebene können wir fragen, ob neuronale Netze das nachahmen können, was menschliche Wissenschaftler tun. Es gibt aber auch eine andere Ebene: Ist es möglich, dass neuronale Netze direkt herausfinden können, wie Systeme – sagen wir in der Natur – sich verhalten? Stellen Sie sich vor, wir studieren einen physikalischen Prozess. Menschliche Wissenschaftler könnten eine menschliche Beschreibung des Systems finden, etwa in Form mathematischer Gleichungen. Aber das System selbst tut einfach direkt, was es tut. Und die Frage ist, ob das etwas ist, was ein neuronales Netz erfassen kann.

Und wenn neuronale Netze nur bei "menschlichen Aufgaben" funktionieren, weil sie architektonisch ähnlich zu Gehirnen sind, gibt es keinen unmittelbaren Grund zu der Annahme, dass sie "rohe natürliche Prozesse" erfassen können, die nichts mit Gehirnen zu tun haben. Was passiert also, wenn KI etwas wie die Vorhersage der Protein-Faltung macht?

Ein Grund dafür dürfte sein, dass, selbst wenn der Prozess des Protein-Faltens nichts mit Menschen zu tun hat, unsere Betrachtung, welche Aspekte wichtig sind, menschlich geprägt ist. Es geht nicht darum, dass ein neuronales Netz die genaue Position jedes Atoms vorhersagen soll – was ohnehin in der Natur selten festgelegt ist. Stattdessen interessiert uns eher, ob das Protein die richtige Grundform und erkennbare Merkmale wie Alpha-Helices hat, sowie ob es funktioniert, wie es soll. Diese Fragen ähneln der Art, wie wir entscheiden, ob ein Bild eine Katze oder einen Hund zeigt – sie liegen im Auge des Betrachters. Wenn ein neuronales Netz also vorhersagen kann, wie sich ein Protein faltet, könnte das teilweise daran liegen, dass es die von Menschen subjektiv gesetzten Kriterien erfüllt, dank seiner dem menschlichen Gehirn ähnlichen Struktur.

Es ist ein wenig wie die Erzeugung eines Bildes mit generativer KI. Auf der Ebene der grundlegenden menschlichen visuellen Wahrnehmung mag es wie etwas aussehen, das wir erkennen. Aber wenn wir es genau betrachten, sehen wir, dass es nicht "objektiv" das ist, was wir denken.

Es war mit der Physik der ersten Prinzipien nie wirklich praktikabel herauszufinden, wie Proteine sich falten. Daher ist es beeindruckend, dass neuronale Netze auch nur annähernd korrekte Antworten liefern können. Wie machen sie das? Ein bedeutender Teil davon ist sicher effektiv das Zuordnen von Proteinsegmenten zu dem, was im Trainingssatz vorhanden ist, und dann "plausible" Wege zu finden, diese Segmente zusammenzufügen. Aber es gibt wahrscheinlich noch etwas anderes. Man kennt bestimmte "Regelmäßigkeiten" in Proteinen (wie Alpha-Helices und Beta-Faltblätter). Es scheint jedoch wahrscheinlich, dass neuronale Netze sich in andere Arten von Regelmäßigkeiten einklinken; sie haben irgendwie Taschen der Irreduzibilität gefunden, von denen nicht bekannt war, dass sie existieren. Und besonders wenn nur ein paar Taschen der Irreduzibilität immer wieder auftauchen, repräsentieren sie effektiv neue, allgemeine "Ergebnisse in der Wissenschaft" (etwa eine neue Art von häufig vorkommendem "Meta-Motiv" in der Proteinstruktur).

Obwohl es grundsätzlich unvermeidlich ist, dass es am Ende eine unendliche Anzahl von Taschen der rechnerischen Irreduzibilität geben muss, ist es zunächst nicht klar, wie bedeutend diese in den Dingen sein könnten, die von Interesse sind, oder wie erfolgreich Methoden neuronaler Netze bei deren Auffindung sein könnten. Man könnte sich vorstellen, dass neuronale Netze, insofern sie die wesentliche Arbeitsweise unseres Gehirns spiegeln, nur in Fällen Taschen der Irreduzibilität finden könnten, in denen auch Menschen sie leicht entdecken könnten, etwa durch Betrachten einer Visualisierung.

Ein wichtiger Punkt ist jedoch, dass das menschliche Gehirn normalerweise nur mit Daten "trainiert" wird, die leicht mit unseren Sinnen erfahren werden: Es wurden das Äquivalent von Milliarden von Bildern gesehen und Zillionen von Klängen gehört. Aber es besteht keine direkte Erfahrung mit den mikroskopischen Bewegungen von Molekülen oder mit einer Vielzahl von Arten von Daten, die wissenschaftliche Beobachtungen und Messgeräte liefern können.

Ein neuronales Netzwerk kann jedoch mit sehr unterschiedlichen "Sinneserfahrungen" aufwachsen – sagen wir, es erlebt direkt den "chemischen Raum" oder auch den "metamathematischen Raum", den Raum finanzieller Transaktionen oder Interaktionen zwischen biologischen Organismen oder was auch immer. Aber welche Arten von Bereichen rechnerischer Reduzierbarkeit gibt es in solchen Fällen? Meistens wissen wir das nicht. Wir kennen die, die der "bekannten Wissenschaft“ entsprechen. Aber auch wenn wir erwarten können, dass andere existieren müssen, kennen wir sie normalerweise nicht.

Werden sie für neuronale Netze "zugänglich" sein? Auch das ist unbekannt. Ganz wahrscheinlich, wenn sie zugänglich sind, dann gibt es eine Darstellung – oder Visualisierung – in der die Irreduzibilität für die Betrachtenden "offensichtlich" sein wird. Aber es gibt viele Möglichkeiten, wie dies scheitern könnte. Zum Beispiel könnte die Irreduzibilität "visuell offensichtlich" sein, aber nur in 3D-Volumen, wo es etwa schwer ist, unterschiedliche Strukturen zu unterscheiden. Oder vielleicht könnte die Irreduzibilität nur durch eine Berechnung offenbart werden, die von einem neuronalen Netz nicht leicht gehandhabt wird.

Unweigerlich gibt es viele Systeme, die rechnerische Irreduzibilität zeigen, und die – zumindest in ihrer vollen Form – für jede "Abkürzungsmethode", basierend auf neuronalen Netzen oder anders, unzugänglich sein müssen. Aber die Frage ist, ob, wenn es eine Tasche der rechnerischen Irreduzibilität gibt, sie von einem neuronalen Netz erfasst werden kann.

Aber einmal mehr steht man vor der Tatsache, dass es keine "modelllosen Modelle" gibt. Ein bestimmter Typ eines neuronalen Netzes wird in der Lage sein, bestimmte Arten der rechnerischen Irreduzibilität leicht zu erfassen; ein anderer wird andere Arten leicht erfassen können. Und ja, es ist immer möglich, ein neuronales Netz zu konstruieren, das jede gegebene spezifische Funktion annähern kann. Aber bei der Erfassung einer allgemeinen Art von rechnerischer Irreduzibilität wird viel mehr verlangt – und was erreicht werden kann, hängt unweigerlich von der zugrundeliegenden Struktur des neuronalen Netzes ab.

Angenommen, ein neuronales Netz kann in einem bestimmten Bereich Vorhersagen treffen. Heißt das, es kann alles vorhersagen? Meistens nicht. Oft gibt es nur in einem kleinen Teilbereich Vorhersagbarkeit, während es darüber hinaus noch viele unvorhersehbare Elemente gibt.

Tatsächlich scheint das beispielsweise bei der Protein-Faltung zu geschehen. Hier sind einige Beispiele für Proteine mit Strukturen, die als ziemlich einfach wahrgenommen werden – und die Vorhersage des neuronalen Netzes (Gelb) stimmt ziemlich gut mit den Ergebnissen der physischen Experimente (graue Röhren) überein. In der oberen Reihe arbeitet das neuronale Netz gut, bei komplexeren Proteinen (mittlere Reihe) ist die Übereinstimmung nicht mehr so gut. Und wie sieht es mit noch komplexeren Proteinen aus (unten)?

(Bild: Stephan Wolfram / Bearbeitung: heise online)

Es ist schwer zu beurteilen, wie gut das neuronale Netz in diesem Fall funktioniert; es scheint wahrscheinlich, dass es, besonders wenn es "Überraschungen" gibt, diese nicht erfolgreich erfassen wird. (Natürlich könnte es sein, dass alle "vernünftigen Proteine", die normalerweise in der Biologie vorkommen, bestimmte Merkmale aufweisen, und es könnte "unfair" sein, das neuronale Netz auf "unbiologische" zufällige Proteine anzuwenden – obwohl zum Beispiel im adaptiven Immunsystem die Biologie tatsächlich zumindest kurze "zufällige Proteine" effektiv generiert.)