Wie KI den Computer neu erfindet

Künstliche Intelligenz verändert unsere Rechner über mindestens drei Wege.

In Pocket speichern vorlesen Druckansicht 24 Kommentare lesen

(Bild: Andrea Daquino)

Lesezeit: 7 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Herbst 2021: die Zeit der Kürbisse, der Pekannuss-Kuchen, und der neuen schicken Handys. Jedes Jahr bringen Apple, Samsung, Google und andere pünktlich ihre neuesten Geräte auf den Markt. Diese Fixpunkte im Kalender der Unterhaltungselektronik lösen nicht mehr die Überraschung und das Staunen aus wie in ihren Anfangstagen. Dennoch verbirgt sich hinter all dem Marketing-Glanz etwas Bemerkenswertes.

Googles neuestes Angebot, das Pixel 6, ist das erste Telefon mit einem separaten Chip für KI, der neben dem Standardprozessor sitzt. Und der Chip, auf dem das iPhone läuft, enthält seit ein paar Jahren etwas, das Apple als "neural Engine" – neuronale Recheneinheit – bezeichnet und die ebenfalls der KI gewidmet ist. Beide Chips eignen sich besser für Rechenleistungen, die für Maschinelles Lernen gebraucht wird – zum Beispiel die KI, die Kameras steuern. Fast unbemerkt hat die KI Einzug in unseren Alltag gehalten. Und sie verändert unsere Einstellung gegenüber Computern.

Was bedeutet das? Computer haben sich in den letzten 40 oder 50 Jahren nicht sehr verändert. Sie sind zwar kleiner und schneller geworden, aber es sind immer noch Kästen mit Prozessoren, die Anweisungen von Menschen ausführen. Die künstliche Intelligenz ändert dies an mindestens drei Fronten: wie Computer hergestellt werden, wie sie programmiert werden und wie sie verwendet werden. Letztlich wird sich auch ändern, wofür sie eingesetzt werden.

"Im Grunde bewegt sich das Rechnen von der Datenverarbeitung zur Entscheidungsfindung", sagt Pradeep Dubey, Direktor des Parallel Computing Lab bei Intel. Oder, wie es die MIT CSAIL-Direktorin Daniela Rus ausdrückt, die KI befreie die Computer aus ihren Kästen.

Die erste Veränderung betrifft die Herstellung der Computer – und der sie steuernden Chips. Traditionelle Computer konnten eine Rechenfolge immer schneller ausführen. Jahrzehntelang profitierte die Welt von der Beschleunigung der Chips, die regelmäßig erfolgte, da die Chiphersteller mit dem Mooreschen Gesetz Schritt hielten. (Das mooresche Gesetz besagt, dass sich die Komplexität integrierter Schaltkreise regelmäßig verdoppelt.)

Die Deep-Learning-Modelle, mit denen die aktuellen KI-Anwendungen arbeiten, erfordern jedoch einen anderen Ansatz: Sie müssen viele Berechnungen gleichzeitig, dafür aber nicht so präzise durchführen. Das erfordert eine neue Art von Chip: Er muss die Daten so schnell wie möglich bewegen und sicherstellen, dass sie immer zur richtigen Zeit und am richtigen Ort verfügbar sind. Als Deep Learning vor etwa zehn Jahren auf den Plan trat, gab es bereits spezielle Computerchips, die dies ziemlich gut konnten: Grafikprozessoren (GPUs), die dafür ausgelegt waren, Dutzende Male pro Sekunde einen ganzen Bildschirm voller Pixel anzuzeigen.

Jetzt schwenken Chiphersteller wie Intel, Arm und Nvidia, die viele der ersten GPUs geliefert haben, auf Hardware um, die speziell für KI zugeschnitten ist. Auch Google und Facebook drängen zum ersten Mal in diese Branche, um mit Hilfe von Hardware einen KI-Vorsprung zu erzielen.

Der Chip im Pixel 6 ist zum Beispiel eine neue mobile Version der Tensor Processing Unit (TPU) von Google. Im Gegensatz zu herkömmlichen Chips, die auf ultraschnelle, präzise Rechenleistung ausgerichtet sind, sind TPUs für großvolumige, aber wenig präzise Berechnungen ausgelegt, wie sie für neuronale Netzwerke erforderlich sind. Google setzt diese Chips seit 2015 intern ein zur Bearbeitung von Fotos und für gesprochene Suchanfragen (Natural Language Processing). Die Google-Schwesterfirma DeepMind nutzt sie, um ihre KI zu trainieren.

In den letzten Jahren hat Google die TPUs auch anderen Unternehmen zur Verfügung gestellt, und diese Chips – sowie ähnliche, von anderen entwickelte Chips – werden inzwischen zum Standard in den Rechenzentren der Welt.

Die KI hilft sogar dabei, ihre eigene Recheninfrastruktur zu entwerfen. 2020 setzte Google einen Reinforcement-Learning-Algorithmus – eine Art von KI, die durch Versuch und Irrtum lernt, wie eine Aufgabe zu lösen ist – ein, um das Layout einer neuen TPU zu kreieren. Die KI entwarf ungewöhnliche neue Designs, an die kein Mensch denken würde – aber sie funktionierten. Diese Art von KI könnte eines Tages bessere, effizientere Chips entwickeln.

Die zweite Veränderung betrifft die Art, wie man Computern sagt, was sie tun sollen. "In den letzten 40 Jahren haben wir Computer programmiert, in den nächsten 40 Jahren werden wir sie trainieren", sagt Chris Bishop, Leiter von Microsoft Research in Großbritannien.

Um einen Computer etwa dazu zu bringen, Sprache zu erkennen oder Objekte in einem Bild zu identifizieren, mussten die Programmierer bisher erst Regeln für den Computer entwerfen.

Beim maschinellen Lernen schreiben die Programmierer keine Regeln mehr. Stattdessen erschaffen sie ein neuronales Netz, das diese Regeln selbst erlernt. Das ist eine grundlegend andere Art zu denken.

Beispiele dafür sind bereits alltäglich: Spracherkennung und Bilderkennung sind heute Standardfunktionen auf Smartphones. Andere Beispiele haben für Schlagzeilen gesorgt: AlphaZero hat sich selbst beigebracht, besser Go zu spielen als Menschen. In ähnlicher Weise knackte AlphaFold ein biologisches Problem, nämlich die Faltung von Proteinen – ein Phänomen, das Wissenschaftler jahrzehntelang nicht verstanden hatten.

Bishop sieht die nächsten großen Durchbrüche in der Molekularsimulation: Computer werden darauf trainiert, die Eigenschaften von Materialien zu manipulieren. Das könnte zu tiefgreifenden weltweiten Veränderungen in den Bereichen Energienutzung, Lebensmittelproduktion, Herstellung und Medizin führen.

Solche atemberaubenden Versprechungen werden oft gemacht. Tatsächlich ist Deep Learning immer wieder für Überraschungen gut. Zwei der bisher größten Fortschritte dieser Art – die Fähigkeit von Computern, sich so zu verhalten, als würden sie Sprache verstehen, und zu erkennen, was in einem Bild enthalten ist – verändern bereits unseren Umgang mit ihnen.

Jahrzehntelang brachte man einen Computer dazu, etwas zu tun, indem man einen Befehl eingetippt hat oder zumindest eine Schaltfläche angeklickt.

Doch die Rechner brauchen nun keine Tastatur oder einen Bildschirm mehr, mit denen der Mensch interagieren muss. Alles kann zu einem Computer werden. Die meisten Haushaltsgegenstände, von Zahnbürsten über Lichtschalter bis hin zu Türklingeln, gibt es bereits in einer intelligenten Version. Aber je mehr sie sich verbreiten, desto weniger Zeit werden wir darauf verwenden, ihnen zu sagen, was sie tun sollen. Sie sollten in der Lage sein, das zu tun, was wir brauchen, ohne dass wir es ihnen sagen müssen.

Die Verarbeitung großer Datenmengen verlagert sich zunehmend zur Entscheidungsfindung – laut Dubey beginnt damit eine neue Ära des Computerzeitalters. (jle)