Ansicht umschalten
Avatar von MetaCircularEvaluator
  • MetaCircularEvaluator

mehr als 1000 Beiträge seit 20.03.2015

Re: Schluss, aus, Ende!

Sven Schumacher schrieb am 19.10.2018 00:07:

Also jetzt hat man nach über 10 Jahren die EUV-Belichtung einigermaßen im Griff.
"Licht" was schon in den Bereich der Röntgenstrahlung reicht und Strukturen von 7nm.

Nur wenige Atomlagen trennen "Leiterbahnen" und auch Sperrschichten sind grade noch so dick, dass sie funktionieren. Man wird sicher noch einige Jahre brauchen bis das das übliche Herstellungsverfahren ist und dann?

Noch kleiner kann man kaum noch werden, weil einfach die Atome zu dick sind, die Schichten zu dünn werden. In gerade mal 50 Jahren ist man von den ersten - noch handverlöteten - Transistoren an eine Schallmauer vorgedrungen, die man wohl nicht einfach mit der bekannten Technik durchbrechen kann.

Weder kann man die Strukturen noch nennenswert verkleinern, noch kann man mit sehr viel höheren Taktraten rechnen. Die uns bekannte Physik setzt da einfach aus. Und meines wissens gibt es nichts, was man für "danach" in der Pipeline hat. Also nur noch mehr Kerne? Computer können nur noch stärker werden wenn man sie einfach größer baut und mehr Chips darauf unterbringt? Zwar reichen die zu erwartenden Leistungen noch ein paar Jahre für regelmäßige Steigerungen, aber die jetzt erreichte Komplexität ist ja auch nicht so problemlos (siehe Spectre und Co.)

Also wenn ich nichts verpasst habe, dann war's das im Großen und Ganzen?

Naja. Als einerseits entspricht es auch meinem Kenntnisstand, dass mit "konventioneller" Technik ein Ende in Sicht ist. Ist es jetzt aber schon seit gefühlt 20 Jahren. :-)

Auf der anderen Seite, wird fleißig an Alternativen geforscht. Von "Ein-Atom-Transistoren" über Photonische-Bauelemente bis hin zu Quantencomputern.

Und auch wenn man die aktuelle Hardware zum Teil ausgereizt hätte, Softwareseitig ist noch ganz viel zu holen! Wir nutzen ja immer noch Rechner, die mehr oder weniger eine "PDP-7" simulieren, weil all unsere Low-Level Software für solche Rechner entwickelt wurde. Im Prinzip beherrschen wir bisher ja nicht mal paralleles rechnen, weil die Simulation einer "PDP-7" (oder halt eines vergleichbaren Rechners) gar keine Parallelität vorsieht. Alles auf dem Low-Level ist auf sequenzielles Rechnen ausgelegt. Was wir deswegen machen ist, mehrere Recheneinheiten an einer Befehlssequenz arbeiten zu lassen, also mit paralleler Hardware einen Sequenziellen Computer zu simulieren. Das klappt aber nur bedingt. Das heil wird dann in explizit parallelen Algorithmen für ganz bestimmte Aufgaben gesucht. Auf der vorhandenen Hardware gut abbildbare Versionen hiervon gibt es aber nur für wenige Aufgabenstellungen. Auch ist der größte Flaschenhals nicht mehr der Prozessor, sondern dessen Anbindung an seinen Speicher. Ohne ausgeklügeltste vielschichtige Cache-Technologien hätte man nur einen Bruchteil der jetzt erzielbaren Rechenleistung. Hier beißt uns die von Neumann Architektur mit ihrem "RAM" in den Allerwertesten.

Abseits der von Neumann Computer gibt es aber praktisch eine unendliche Menge an Möglichkeiten Rechenmaschinen zu bauen. Was dabei herauskommen könnte, wenn man eines dieser Konzepte 75+ Jahre lang optimieren würde, kann niemand sagen.

Aber allein mit Massivst paralleler Hardware, und vor allem neuartigen Möglichkeiten diese zu programmieren, würde man sehr weit kommen. Den mehr Rechenwerke in Chips zu stecken ist nicht so problematisch. Die Chips so zu gestalten, und Software so zu schreiben, dass man diese vielen Rechenwerke sinnvoll nutzen kann, ist die wahre Herausforderung.

Also egal was kommen mag, ich glaube wir haben noch recht leicht Luft nach oben für die nächsten 30 - 50 Jahre. Und bis dahin gibt es eh eine Super AGI, und alles was wir Menschen dann noch machen (falls es uns noch gibt), ist dann sowieso nicht wesentlich.

Bewerten
- +
Ansicht umschalten