Passt also. Deine 1,5 sind völliger Bullshit und wenn sie stimmen, dann ist die 960 um einiges schneller als eine 280.
Ich hab doch bereits gesagt, dass die 1,5 zu niedrig sind und mich korrigiert. Ich würde mir nur wünschen, dass bei dir die Einsicht noch folgt, dass "um einiges schneller" ebenso Unfug ist. Bei niedrigeren Auflösungen und geringer Kantenglättung ist die GTX tendenziell gleich schnell oder etwas schneller, bei höheren Auflösungen und höherer Kantenglättung eher nicht oder etwas langsamer (je nach Takt), dazu kommt noch eine erhebliche Streuung je nach Anwendung, was sich dann Anwendungsspezifisch in erheblichen Vorteilen (mitunter 20-30%) für die eine oder die andere Karte je nach Anwendung übersetzt. Auf etwa 70 W unterschied in der Leistungsaufnahme können wir uns aber einigen, ja? Denn das ist der entscheidende Wert, wenn man durchrechnen will, wie sehr sich der geringere Energiebedarf beispielsweise in einen finanziellen Vorteil übersetzt.
Im anderen Thread hast du ja genug Benchmarks, die deine Behauptung schlicht widerlegen. Du solltest dir keinen zurechtlĂĽgen (wie mit dem Faktor 1,5) und mehr bei den Fakten bleiben.
Mittelwert my ass, wer nicht mal 110 durch 180 teilen kann.
Kannst du leicht nachrechnen. Ist gar kein Problem. Einfach nur die Benchmark-Werte in eine Tabelle tippen und den Mittelwert berechnen.
Ich hatte die "HighEnd"-Karten von AMD angesprochen, um zu verdeutlichen, dass es bei der Konkurrenz faktisch überhaupt nichts gibt, was einer 280 das Wasser reichen könnte.
Ich denke, anstatt "280" soll da "960" stehen: Ich habe eben geantwortet, dass das so nicht so ganz stimmt. Es gibt durchaus Gründe, warum auch die leistungsmäßig gleichwertige R9 280 eine sinnvolle Alternative darstellen kann. Beispielsweise eben wenn der niedrigere Einkaufspreis wichtiger ist (z.B. für Gelegenheitsnutzer). Man könnte jetzt argumentieren, dass 40 € kein riesiger Preisunterschied sind, aber "nix" isses halt auch nicht (es soll ja tatsächlich auch Leute geben, die es nicht so dicke haben). Und wenn man das teil eher Selten nutzt, ist das aus finanziellen Gründen dann eh nicht vorteilhaft. Genauso gibt es gute Argumente für die sparsamere Karte (z.B. weil man aus ideologischen Gründen strom sparen will; das Wort "ideologisch" sei an dieser Stelle übrigens ausdrücklich nicht negativ konnotiert). Für beides kann man grundsätzlich stichhaltig argumentieren, nur dass es keine Alternative zur GTX 960 in diesem Preisbereich gibt, stimmt halt eben einfach nicht. Die GTX 960 ist zweifelsohne eine gute Karte für den Preis, aber nicht ohne Alternativen.
Auch wenn du dein Netzteil nicht auf Kante auslegst, musst du die gleiche Marge nutzen. Da kalkulierst du für die 280 also 100W mehr ein, als dies für die 960 der Fall ist. Gleichzeitig sind gerade stärkere Netzteil im Teillastbereich weniger effizent, das schlägt sich dann auch primärseitig auf den Verbrauch nieder, der bei der 280 Lösung deutlich höher sein wird.
Diese Schaltnetzteile für PC's haben ihr Effizienzmaximum normalerweise um 50% Belastung, oder besser gesagt eine Art Effizienzplateau im Bereich 30% - 70 %. Ein 500W-Netzteil würde also bei beiden Karten wohl die effizienteste und günstigste Lösung darstellen. Nur so am Rande: Wenn der Rechner ohnehin nur zum Gelegenheitsspielen verwendet wird und an sonsten hauptsächlich im Desktopbetrieb, würde es sogar ziemlich viel Sinn machen, die 40 Euro bei der Grafik zu sparen und dafür in ein sehr effizientes Netzteil zu stecken. Vergleicht man 80Plus Bronze (die gibts so ab 50 Euro) mit 80Plus Platin (die gibts ab 90 Euro) liegt der Break-Even ungefähr bei einem Nutzungsverhältnis (70/30 Desktop/Gaming), welcher sich bei höherem Idle-Verbrauch (ich habe jetzt 70 W im Desktop-Betrieb angenommen, das ist eher etwas zu wenig, der tatsächliche Stromverbrauch im Desktop-Betrieb ist natürlicherweise höher wie im Leerlauf) in Richtung Gaming verschiebt. Je nach Nutzungsverhalten kann es also sogar gut sein, dass die Kombination R9+effizienteres Netzteil insgesamt genau so viel oder weniger Energie benötigt wie GTX 960 + weniger effizientes Netzteil.
Was ich damit verdeutlichen will (und das gilt für alle Komponenten): Die Wahl der geeigneten Komponenten für ein System hängt von etwas mehr ab wie dem 1:1-Vergleich der einzelnen Komponenten und hängt besonders stark vom Nutzungsverhalten ab. Daraus abgeleitet ergibt sich, dass für manche eben die GTX die bessere Wahl ist und für manche die Radeon. Der Kern deiner These ist: "Die GTX ist in diesem Preisbereich immer die bessere Wahl", das ist meiner Ansicht nach schlicht falsch.
Das erklärt sich mit Blick auf die GPU-Temperatur, während die Chips der 960 Modelle bei bis zu niedrigen 40°C liegen, brutzel der Chip der 280 bei 80°C vor sich hin.
Und du wirst mir Cherrypicking vor? Das ist eine Karte, die mit einem viel zu großen Kühler ausgestattet ist. Die Anderen 960er liegen in dem Test zwischen 64 °C und 69 °C unter Last. Und dass die R9 280 80 °C erreicht ist auch nicht weiter verwunderlich, denn diese 80 °C sind bei den meisten Karten der übliche Sollwert der Führungsgröße in Bezug auf den Regler für die Lüfter. Und da die 80 °C nicht kritisch sind, verstehe ich sowieso nicht, was das Argument "Temperatur" an dieser Stelle soll, außer dass man es ganz toll finden kann, dass da ein niedrigerer Wert steht. Technisch gesehen ist es in dem Temperaturbereich relativ egal, ob die Karte nun 60 oder 80 Grad erreicht.
Aha und was kostet eine Radeon mit 6 Bildschirmausgängen? Die von dir genannten Modelle haben alle keine 6.
Die zusätzlichen Bildschirme laufen per DisplayPort MST. Inzwischen gibts ja Hubs und auch DisplayPort 1.2-Bildschirme, die man durchverbinden kann. Bei mir hängen zwei Bildschirme per DVI an der Karte und vier an dem einen DisplayPort. Es gab mal eine 7850 mit sechs einzelnen Displayport-Anschlüssen, aber das ist dank der Verfügbarkeit von MST-Fähigen Bildschirmen/Hubs inzwischen obsolet geworden. Da hat nVidia eh schon Fortschritte gemacht. Als ich mir die 7950 gekauft habe, gabs bei denen nur maximal zwei Bildschirme (oder vielleicht mal drei) an einer Karte im Consumer-Bereich (es sei denn, man kaufte sich eine Multi-GPU-Karte, die konnten meiner Erinnerung nach dann 2x2 Bildschirme), inzwischen können die Consumer-Karten von nVidia eigentlich alle maximal vier Bildschirme.