zurück zum Artikel

Stunde der Exoten

Christian J. Meier

Um die Leistung von Computern weiter massiv zu steigern, müssen Forscher sie neu erfinden. Einige behaupten, genau dies getan zu haben.

"Wir wollen Computer 100- bis 1000-mal leistungsstärker machen", sagt Max Shulaker vom Massachusetts Institute of Technology in Boston. Es ist eine mutige Aussage des Elektrotechnikers – aber eine in Zeiten, die diesen Mut nötig haben. Denn der Fortschrittsmotor der Computerbranche, das Mooresche Gesetz, stottert immer vernehmlicher. In nicht einmal zehn Jahren könnte er ganz stehen bleiben. Für Shulaker wäre es eine Riesenchance, den Branchenriesen wie Intel oder AMD die Stirn zu bieten.

Denn die etablierten Unternehmen treiben den technischen Fortschritt seit nunmehr gut 50 Jahren vor allem mit einem Rezept voran: schrumpfen. Mit jeder Technikgeneration sinkt die "Strukturbreite", die Größe der Transistoren auf den Chips. Damit lässt sich zum einen mehr Elektronik auf der gleichen Grundfläche unterbringen. Zum anderen schalten die Transistoren auch schneller als ihre Vorgänger. Die Folge: Die Rechenkraft von Chips explodierte wie die Algenblüte in einem See – gleichzeitig wurden Prozessoren immer energieeffizienter und billiger.

TR 2/2017

(Bild: 

Technology Review 2/17 [1]

)

Dieser Artikel stammt aus dem Februar-Heft von Technology Review. Weitere Themen der Ausgabe:

Aber schon seit 2005 zahlt sich das Mehr an Transistoren nicht in einem verhältnisgleichen Mehr an Leistung aus. Denn mit schrumpfenden Transistoren wurden deren Isolierungen immer dünner, Strom begann zu lecken. Die Folge: Wer heute viel Rechenleistung braucht, braucht viel Energie, vor allem für die Kühlung. Allein Googles Rechenzentren benötigten 2014 zusammen mehr als vier Milliarden Kilowattstunden Strom – so viel wie eine kleine Großstadt.

Spätestens 2025 könnte der bisherige Weg endgültig zu Ende sein, schätzt selbst Intel-Chefentwickler Josh Fryman. Dann werde sein Unternehmen wahrscheinlich mit einer Strukturbreite von nur noch fünf Nanometern arbeiten. Und unterhalb dieser Größe würden die Transistoren nicht mehr verlässlich funktionieren. Dann sind Alternativen gefragt.

Max Shulaker hätte eine zu bieten. Er setzt zwar auf digitale Elektronik, aber auf ein anderes Material, sogenannte Kohlenstoff-Nanoröhrchen (kurz: CNT von "carbon nanotube"). Als einzelnes, röhrenförmiges Molekül aus Kohlenstoffatomen bildet ein CNT eine Schiene für Elektronen. Sie können darauf ungehemmt gleiten, und zwar 10000-mal schneller als in Silizium. Wegen der hohen Agilität der Elektronen lässt sich Strom besonders schnell und effizient an- und abschalten. Wem solche Versprechen allzu bekannt vorkommen, hat recht: Wegen ihnen stiegen in den 1990ern die großen Halbleiterfirmen in die Erforschung der CNTs ein.

Sie stießen aber bald auf große Hürden, die den anfänglichen Hype bremsten. Zum einen sind die nur einen Nanometer (Millionstel Millimeter) dünnen CNTs schwer zu handhaben. In einem Prozessor müssen aber viele CNTs exakt parallel ausgerichtet werden. Viele, weil hoher Stromfluss die Signale beschleunigt. Parallel, weil quer liegende CNTs Kurzschlüsse verursachen.

Zum anderen entstehen bei der Herstellung immer ein paar CNTs, die Strom nicht wie gewünscht wie ein Halbleiter leiten, sondern wie ein Metall, und so eventuell störende Kurzschlüsse verursachen. Inzwischen seien beide Hürden aber überwunden, sagt Shulaker. Sein Team hat parallel ausgerichtete CNTs auf einer Kristalloberfläche wachsen lassen, mit einem Stempel abgelöst und auf ein Substrat verfrachtet. Die darauf noch vorhandenen metallisch leitenden CNTs verbrannten die Forscher mithilfe einer hohen elektrischen Spannung. So gerüstet, baute der Elektroingenieur 2013, damals noch an der Stanford University, einen einfachen, aber multitaskingfähigen Computer mit 178 Transistoren aus CNTs.

Inzwischen sei die Technologie weiter gereift und erlaube den Bau dreidimensionaler Chips, sagt Shulaker. Wenn Schaltkreise wie Stockwerke in einem Hochhaus übereinandergeschichtet werden, verkürzen sich die derzeit oft millimeterlangen Wege, die Daten zwischen Speicher und Prozessor zurücklegen müssen. So will Shulaker seine 100- bis 1000-fache Leistungssteigerung erreichen. Sein Team am MIT will in wenigen Monaten einen ersten 3D-Chip vorstellen. Vier Schichten mit logischen Schaltkreisen, Speicher und Sensoren werde das Gerät enthalten, verspricht Shulaker. "Insgesamt besteht es aus zwei Millionen CNT-Transistoren, dazu eine Million Speicherzellen und eine Million Sensoren", sagt Shulaker. Mehr Einzelheiten will er nicht nennen, bevor das entsprechende Paper nicht veröffentlicht ist.

Franz Kreupl, CNT-Experte der Technischen Universität München, ist dennoch skeptisch: Erstens gebe es noch ungelöste Probleme. So sei etwa die Kontaktierung der CNTs zu anderen elektronischen Komponenten zu klobig, was bedeute, dass die kontaktierten CNT-Transistoren ebenfalls sehr groß werden müssten. Der Konkurrenzvorteil gegenüber Siliziumtransistoren wäre dahin. Zudem, meint der Physiker, müsse die Halbleiterbranche für eine Kohlenstoffelektronik ihre ganze etablierte "Nahrungskette" umstülpen.

Shulaker widerspricht: Im Prinzip lasse sich ein solcher CNT-Computer mit massenfertigungstauglichen Verfahren herstellen. Sein CNT-Chip bricht zwar mit Silizium als dem Rohstoff für Computerchips. Nicht aber mit der grundsätzlichen Funktionsweise klassischer digitaler Computer, Befehl für Befehl nacheinander abzuarbeiten.

Für zwei andere Entwicklergruppen ist dieser Schritt aber noch nicht revolutionär genug. Sie wollen Rechner mithilfe eines in Computern bislang wenig genutzten Mediums in ein neues Zeitalter katapultieren: Licht. Die erste ist die Firma Optalysys aus dem britischen Cambridge. Sie nutzt keine Transistoren oder sonstigen Bauelemente, die denen auf klassischen Chips ähneln. Ihre Computer rechnen mit Lichtwellen, die sich überlagern.

Grob gesagt funktioniert der Lichtrechner so: Ein Laserstrahl durchdringt einen Flüssigkristallbildschirm. Dessen Pixel tragen die Eingabedaten in Form unterschiedlicher Lichtdurchlässigkeit – jedes Bit entspricht einem Pixel auf dem Schirm. Die Lichtwellen, aus denen der Laserstrahl besteht, werden von jedem Pixel unterschiedlich abgeschwächt.

Hinter dem Schirm werden die Lichtwellen überlagert. Sie bilden eine sogenannte Fourier-Transformation – jeder einzelne Punkt stellt eine komplexe mathematische Verknüpfung der Eingabedaten dar. Überlagert man nun mehrere solcher transformierter Datenfelder, verknüpft man auf einen Schlag jedes Datenfeld des einen Datensatzes mit allen anderen Datenfeldern des zweiten Datensatzes. So ist extrem schnelles, massiv paralleles Rechnen möglich. Ein Kamerachip liest dann die optischen Daten aus und wandelt sie wieder zurück.

An sich ist die Idee nicht wirklich neu. Bereits in den 1960er-Jahren wurden erste Systeme gebaut, die Muster, wie zum Beispiel die Umrisse von Flugzeugen oder Panzern, in einem größeren Bild in Echtzeit finden konnten. Mit der Entwicklung von kompakten, kostengünstigen Festkörperlasern, schnellen optischen Modulatoren und optischen Speichern machte sich eine rasch wachsende Forschungs-Community Hoffnung, schon bald rein optische digitale Rechner bauen zu können. Optische Systeme sind allerdings empfindlich gegen Vibration, Staub und Temperaturschwankungen. Zudem legten klassische elektronische Computer schnell an Rechenkapazität zu. Um die Jahrtausendwende schlief die Forschung daher ein. Seit das Interesse an Alternativen zu Siliziumchips wieder wächst, erlebt das Feld seine Renaissance. Noch sind die verfügbaren optischen Computer jedoch Spezialmaschinen für besondere Anwendungen.

Ein erster Prototyp von Optalysys sucht nach Mustern im menschlichen Erbgut – also kurze Basenabschnitte in einer oder mehreren sehr langen Basensequenzen. Ein herkömmlicher Rechner müsste jeden DNA-Baustein einzeln mit allen anderen Bausteinen vergleichen und sich so Schritt für Schritt vorarbeiten. Der optische Prozessor erledigt den Prozess auf einen Schlag. Die Suche nach Gensequenzen gehe 20-mal schneller als mit einem konventionellen Rechner und spare 95 Prozent Energie, sagt Optalysys-Boss Nick New.

Anwendbar sei der optische Rechner auch bei aerodynamischen Studien sowie der Analyse von Finanz- oder Klimadaten. Zwar arbeitet Optalysys daran, seine Maschinen für Wetter- und Strömungssimulation nutzen zu können. Ein frei programmierbarer optischer Rechner für beliebige Probleme ist aber nicht in Sicht. Ende dieses Jahres soll das erste Produkt auf den Markt kommen. In drei Jahren dann soll er zehnmal schneller rechnen als der derzeit schnellste Supercomputer der Welt, der chinesische "Sunway TaihuLight". "Und das mit dem Platz- und Strombedarf eines Desktop-Computers", wie New hinzufügt. Der chinesische Superrechner hingegen hat den Strombedarf einer Kleinstadt.

Nicht minder ehrgeizig ist das Pariser Start-up LightOn. Die Franzosen wollen optische Computer für maschinelles Lernen nutzen. In einem ersten Schritt entwickeln sie einen optischen Coprozessor, der konventionellen Rechnern helfen soll, extrem große Datensätze handhabbar zu machen. Bei der Analyse von Gendaten zum Beispiel sehen sich Forscher enormer Komplexität gegenüber: Tausende Gene beeinflussen sich gegenseitig.

Aber welche Gene sind relevant für die Krankheit X oder für schnelles Altern? Um Antworten auf solche Fragen zu bekommen, müssen die molekularbiologischen Daten auf einen Bruchteil ihrer ursprünglichen Größe eingedampft werden. Dafür gibt es eine mathematische Funktion namens "random projection". Diese filtert die Daten so, dass sie nur wenig Informationsgehalt einbüßen. Der Haken: Je größer die Datenbank, desto mehr Rechenschritte umfasst die Operation. Das überfordert schnell jeden Computer.

Die Maschine von LightOn löst dies auf ähnliche Weise wie Optalysys durch sich überlagernde Lichtstrahlen, die Rechnungen parallel ausführen. "Das funktioniert 500-mal schneller als auf einem PC, mit etwa dem gleichen Energieaufwand", sagt Laurent Daudet, Mitbegründer der Firma. In knapp zwei Jahren soll die Maschine marktreif sein. Bei den Lichtrechnern ist das Schrumpfen von Bauteilen nicht mehr der Schlüssel zu mehr Rechenpower, sondern eine andere Art der Datenverarbeitung: "Wir lassen die Natur rechnen", bringt es Daudet auf den Punkt. (bsc [6])


URL dieses Artikels:
https://www.heise.de/-3664737

Links in diesem Artikel:
[1] https://shop.heise.de/zeitschriften/technology-review
[2] https://www.heise.de/hintergrund/Phantombild-aus-dem-Roehrchen-3664512.html
[3] https://www.heise.de/hintergrund/Der-neue-Volks-Wagen-3664506.html
[4] https://www.heise.de/hintergrund/Die-Schutzbrille-3664735.html
[5] https://www.heise.de/hintergrund/Stunde-der-Exoten-3664737.html
[6] mailto:bsc@heise.de