Ansicht umschalten
Avatar von DeathAndPain
  • DeathAndPain

mehr als 1000 Beiträge seit 29.10.2014

Re: Noch zwei Jahre 28 nm...

Die hätten alle aufgrund der mehreren Milliarden Transistoren großen GPUs schon lieber gestern als heute in 16nm fertigen lassen, aber die Technik war noch nicht zuverlässig verfügbar.

Intel fertigt schon seit Jahren in kleineren Strukturgrößen. Klar ist Intel nicht der Nabel der Welt (...oder doch?), aber regelmäßige Miniaturisierungen sind in der Branche absolut üblich und Standard und tragen wesentlich zur Leistungssteigerung bei. Hier sind die GPUs gegenüber den CPUs ganz schön ins Hintertreffen geraten, was vor 2012 nicht der Fall war.

Es müssen ja nicht gleich 16nm sein. Drei Jahre nach 28nm hätte man zumindest mal 20nm erreichen sollen (und trotzdem Intel hinterhergehinkt).

Außerdem: Was bringt einem ein kleinerer Prozess, wenn der Ausschuss exorbitant ist und die Fertigung pro Transistor aufgrund der nötigen Prozess-Schritte selbst bei gleicher Ausbeute derzeit noch mehr kostet?

Leistung? Worauf Du anspielst, ist doch nur die bessere Wafer-Ausbeute, weil man bei kleinerer Struktur auf einem Wafer mehr Chips unterbringt. Aber das ist doch nur ein Aspekt unter mehreren. Kleinere Strukturen kannst Du mit geringerer Spannung betreiben und hast dadurch weniger Abwärme. Neben höherer Stromsparsamkeit erlaubt dies höhere Taktfrequenzen. Zudem bedeuten kleinere Strukturen kürzere Leitungswege, und da bei heutigen Rechengeschwindigkeiten die Leitungslängen innerhalb der CPU durchaus ein Thema sind, ist auch dies ein Leistungsfaktor.

Das siehst Du übrigens auch sehr schön bei den CPUs. Auch dort kommt AMD bei den Strukturgrößen nicht annähernd hinterher und liefert glühendheiße, verglichen mit Intel langsam laufende Möhren ab.

Außerdem ist für die meisten chips 28nm derzeit mehr als ausreichend, denn die Halbleiterwelt besteht nicht nur aus Intel, AMD und NVidia.

Im PC-Bereich ist diese Aussage offensichtlich (weitestgehend) falsch. Gerade für GPUs ist Stromverbrauch ein ganz erhebliches Thema. Ist Dir mal aufgefallen, dass in jenen letzten drei Jahren der durchschnittliche Stromverbrauch der Grafikkarten kontinuierlich zugenommen hat? Die Erfindung der Maxwell-Architektur war eine Ausnahme, aber selbst die Maxwell-Karten verbrauchen alle mehr als meine alte Radeon 7770. Man will immer mehr Leistung bieten, kriegt es aber nicht gebacken, die Strukturen zu miniaturisieren, also muss man einfach Transistoren gleicher Größe draufsatteln und kommt damit bei modernen Grafikkarten kaum mehr unter 100 Watt.

Ja und? Sorry, aber die Physik wirst Du mit dem Geheule auch nicht ändern können.

Die Physik ist nicht das Problem, sondern die Investitionen im F&E-Bereich. Dass die kleinen Strukturen physikalisch machbar sind, beweist Intel längst durch lieferbare Produkte.

Bewerten
- +
Ansicht umschalten