Ansicht umschalten
Avatar von
  • unbekannter Benutzer

mehr als 1000 Beiträge seit 26.09.2005

Re: End-Of-Life fuer Wintel: Mit der NSA-Affaere ist nichts mehr sicher!

Also werden die Entscheider sowas sehr, sehr zögerlich angehen.

Mir scheint eher, die sehen sich als Statthalter des Hegemons oder versprechen sich von einem derartigen Verhalten die größten persönlichen Vorteile.

In vielen Dingen ja, aber nicht in allen.
Das ist schlicht keine Hegemonie. Die Amis kriegen nicht immer die Unterstützung für ihre militärischen Abenteuer, die sie sich wünschen, schon vergessen?
... auch wenn's natürlich hüben wie drüben sicher eine Menge Politiker gibt, die das tatsächlich so sehen. Aber ich fürchte, die sehen nur einen relativ schmalen Ausschnitt des Gesamten. Man darf halt nicht bloß auf die Äußerungen der Schäubles, Pofallas und Friedrichs schielen, und auch von der Merkel kamen einige bemerkenswert klare Sätze.

Die Amis ziehen natürlich eifrig Strippen, um das wieder unter den Teppich zu kriegen, aber sie werden dafür eine Menge Gefallen einfordern müssen, die sie dann nicht für Anderes werden nutzen können. Snowden dürfte die Amis eine Menge Kraft gekostet haben (aber das haben sie sich selbst zuzuschreiben - man spioniert keinen befreundeten Regierungen nach, wenn man sich deren Freundschaft dauerhaft erhalten will).

Zudem kann sich im Moment niemand vorstellen, dass die Amis tatsächlich europäische Infrastrukturen würden lahmlegen wollen. Ich hätte jetzt auch Schwierigkeiten, mir ein derartiges Szenario vorzustellen, dafür müsste eine ganze Menge passieren.

Europa ist freiwillig auf den Stuhl gestiegen, hat sich selbst die Schlinge um den Hals gelegt und ist dabei, sich freiwillig die Hände zu fesseln.

Das kommt mir jetzt aber ziemlich zusammenhanglos vor.
So super fesselt sich die EU nun auch nicht selbst. Die Amis müssen da schon eifrig Störmanöver schieben, um die EU-Staaten gegeneinander auszuspielen (und haben das in der Vergangenheit auch eifrig getan und tun es sicherlich noch).
Selbstfesselung ist das nicht, eher gegenseitige Einflussnahme. Wobei die Amis in vielen Dingen halt am deutlich längeren Hebel sitzen, aber die Europäer sind eben auch keine willenlosen Marionetten.

Die Entwicklung eigener Hardware, eigener Betriebssysteme und Anwendungen dagegen würde die Spionagekosten signifikant in die Höhe treiben ... und das ist sogar schlimmer als der Handel von Erdöl auf Eurobasis.

Das ist jetzt reine Spekulation, die du so herum formulierst, weil es dir grad so in den Kram passt.
Genausogut könnte man behaupten, dass der Erdölhandel auf Eurobasis teurer wäre, und dafür sogar gute Gründe finden - soo viele Milliarden geben die Amis für die Spionage nun auch nicht aus.

Und letztlich ist es auch egal, wie sich die Kosten für die Amis ändern. Mein Punkt ist die Kosten auf unserer Seite. Und da ist schlicht keine seriöse Rechnung möglich, kein Mensch weiß, wie gründlich die NSA spioniert, wie viele Erkenntnisse da tatsächlich an die US-Industrie fließen (oder ob überhaupt Detailinformationen fließen - die NSA hat ein großes Interesse daran, die Industriespionage nicht offensichtlich werden zu lassen, es wird also nicht so sein, dass die EU-Industrie flächendeckend von der US-Industrie ausgeforscht ist).

Wenn man nicht die Frage stellt, wie man existierende CPUs besser geeignet
machen könnte, sondern stattdessen fragt, was eine CPU können sollte, dann
könnten sich weitere Optimierungen z.B. im Bereich Numerikunterstützung und
Speicherverwaltung finden. Sie Dir einfach mal an, wieviel Zeit der Number Dispatch bei einem Lisp/Scheme frißt, auch wenn alle Resultate ganzzahlig sind und in ein Maschinenwort passen. Damit hätte eine spezialisierte Maschine, die Type Tags im Speicher mitführt und fundamentale Datentypen kennt, wohl weit weniger Probleme.

Die würden aber wieder aufgefressen.
An den pipeline stalls würden die gar nichts ändern. Wenn da also ein Bignum zwischen den Maschinenzahlen sitzt, darf der Prozessor all die geleistete Arbeit für speculative execution dann doch wegschmeißen.
Type Tags erhöhen auch den Druck auf den L1-Cache, da hast du dann einen echten Nachteil.

Und am Ende würdest du nur Lisp fördern. Das ist, bei aller Liebe zu Lisp, eben wirklich nur eine Nische, und es wird auch immer eine Nische bleiben - die Sprache ist extrem mächtig, aber das macht sie auch extrem fehleranfällig. Und nur für eine Nische sollte man nicht gleich den Prozessor optimieren, der muss für die komplette Infrastruktur gut funktionieren.

Das Problem liegt meines Erachtens tiefer: Wir dürften uns einig sein, daß eine zunehmende Abstraktion, ob jetzt OO oder FPL oder etwas, an das wir noch gar nicht denken, bei der Programmierung fehlerarmer Software förderlich ist. Entscheidend ist aber heute nicht die Eleganz, mit der man Problemlösungen formulieren kann, sondern wie einfach sich z.B. existierende Bibliotheken bei der Problemlösung nutzen lassen

Existierende Bibliotheken kannst du eigentlich komplett wegschmeißen. Selbst in den BSDs finden sich immer wieder Lücken. Das gilt sogar für NetBSD - lange Jahre hat er zwar gesagt "no security holes in the default configuration", aber die hat ja keinerlei Dienste freigeschaltet, und selbstverständlich hat es auch im NetBSD-Apache Sicherheitslücken gegeben.
Und mittlerweile sagen sie auch nur noch: "just 2 security holes in 20 years". Was nicht gut genug ist.

Allein für eine neue, verifizierbar sichere Softwareinfrastruktur dürfte es 20-40 Jahre brauchen. 5 Jahre, um überhaupt die Programmiersprache samt Annotationen und Verifikation zu entwickeln, und danach geht es dann daran, all die Basislibraries hochzuziehen. Frühestens in 10 Jahren ist für den Endanwender dann das erste Frickel-EUnix zu sehen, danach geht es dann wie bei Linux weiter. Gegen Anfeindungen, die teils auch von der NSA und sonstigen Geheimdiensten finanziert sein dürften, gegen den eigenen Elfenbeinturm, gegen die Bequemlichkeit der Anwender, etc. etc. pp.

Die Hardware drunter muss natürlich auch sicher sein, aber da haben wir einfach viele Jahre Zeit, bis die Software das überhaupt nutzen kann. Was nützt uns eine sichere Hardware ohne sichere Software und umgekehrt...

und wie sich anschließend das Kompilat im Vergleich zu konventionelleren Entwicklungen schlägt.

Das ist angesichts des Zeitrahmens fast egal. Die Chiptechnik in 10-40 Jahren dürfte sowieso anders aussehen als die heute, die Softwaretechnik auch.

Ich sehe im Aufbau einer staatlich subventionierten nicht kompromittierten Hardwareinfrastruktur die Chance für einen kompletten Neubeginn auf der Basis heutigen Wissens. Die Amerikaner fliegen zum Mars, warum sollten die Europäer nicht eine Expedition in eine theoretisch bessere IT-Zukunft unternehmen?

Wohl wahr.
Aber bessere Software macht halt keine schönen PR-Bilder, da wird sich so schnell nicht unbedingt was tun.
Andererseits machen die Europäer im CERN auch Dinge, die den Amis zu teuer bzw. zu unwichtig sind. Warum also nicht eine massive Förderung von FOSS und FOSH (free and open-source hardware)?

Bewerten
- +
Ansicht umschalten