wir kennen die benchmarks, pressemitteilungen und Techdemos. Doch ich wage hier mal einen blick in die Zukunft...
Pixelshader 3.0:
was bringt diese technik? Sehr schwer zu sagen, stöbern wir doch in der Vergangenheit um die Zukunft einzuschätzen.
Damals, ende 2001: wurde die Radeon 8500 veröffentlicht, eines der Hauptfeatures hieß Pixelshader 1.4, der dem 1.3 Shader der Geforceti500 überlegen war, doch bis heute erschien genau 1 Spiel (!) dass den 1.4 shader explizit nutzt, nämlich Max Payne 2. (abgesehen von den techdemos/benchmarks).
Okay, damals war die Situation etwas anders, Ati war der aussenseiter, warum sollte man solche features in spiele einbauen, wenn eh keiner so eine karte hatte? Und der Unterschied PS1.3->1.4 ist nicht so groß wie der von 2.0->3.0.
Ich vermute aber dass es ähnlich kommen wird, und der 3.0 shader lange zeit ungenutzt bleiben wird, und wenns soweit ist, dann wird die 6800 zum alten Eisen gehören.
HDTV/Videoshader:
da scheinen beide seiten noch probleme zu haben, bleibt alles fraglich...
Stromverbrauch:
viele motzen rum, die nvidia Karte brauche zu viel Strom, doch sehe man sich das ganze genau an, ist ati auch nicht besser. Der FX hat weitaus mehr Transistoren, aufgrund der vielen features, hätte ati die auch alle drin, würde die Karte ähnlich viel verbraten.
Da gefallen mir beide nicht, denn hier wäre etwas weniger mehr gewesen, nur 100-50Mhz weniger, und die Kühlung wäre einfacher. Doch beide puschen sich gegenseitig hoch, verständlich, aber dennoch schade.
Beide setzen auf „Brute Force Rendering“, es fehlen die innovative Ideen, HyperZ, Ultra Shadow usw. alles nette sachen, die aber mehr „die Symptomen lindern, anstatt die Krankheit zu heilen“. Da käme ein PowerVR Chip gerade recht, denn die Jungs sollen(!) das schon bei dem Kyro-Chip eingesetzte HSR und Tile-Rendering verbessert haben, doch das Zusammenspiel dieser features mit den Shadern ist etwas Tricky... schauen wir mal was da noch kommen mag...
Leistung/Benchmarks:
Die Spitzen-Karten liegen hier etwa gleichauf, die bildqualität von AF und FSAA wurde vielen Seiten verglichen (dazu: siehe links unten).
Eines bleibt aber zu beachten: die Geforce hat beim größten teil der spiele eine höhere minimale framerate! Und die ist weitaus wichtiger als die durchscnittliche/höchste! Denn obs nun 80 oder 100fps im „entspannten“ momenten sind, ist egal. Beim Kampfgefecht mit explosionen ist es wichtiger, ob man mit 20 oder 30fps rumballert! Da sehe ich nvidia in Zukunft im Vorteil. (Kann sich aber auch noch vieles ändern, neuere Treiber-versionen kommen!)
Fazit:
es gibt keins, im c\'t stil (wheey) überlasse ich das Fazit dem leser, entscheidet selbst anhand der fakten (und meinen hirngespinsten).
MFG Hellspawn
Links zum Thema:
3D Center (Ati benchmarks):http://www.3dcenter.de/artikel/r420_benchmarks/
3D Center (ati technik) http://www.3dcenter.de/artikel/r420_technik/
Tom Hardware (ati): http://www.de.tomshardware.com/graphic/20040504/index.html
Computerbase (ati): http://www.computerbase.de/artikel/hardware/grafikkarten/ati_radeon_x800_pro_x800_xt/
3D Center (nvidia-benchmarks): http://www.3dcenter.de/artikel/nv40_benchmarks/
3D Center (nvidia-technk): http://www.3dcenter.de/artikel/nv40_technik/
Toms Hardware (nvidia): http://www.tomshardware.de/graphic/20040414/index.html
3D Center (3.0 PixelShader) : http://www.3dcenter.de/artikel/2004/03-31_a.php
Grafikkarten und Monitore 26.173 Themen, 116.041 Beiträge
hier noch die obligatorische entschuldigung für die vielen rechtschreibfehler: sorry!
Um den Stromverbrauch mal aufzugreifen!
Die NVIDIA 6800Ultra soll an ein mind. 400W Netzteil angschlossen werden und belget gleich 2 ganze Anschluss stränge!
Jeder 12V Stromanschluss (2 hat sie) soll an einen einzelnen Strag!
Verschwendung meiner Meinung nach!
Da steht ATI besser da! Die X800 hat "nur" einen 12V Anschluss und gewinnt so für mich den Stromverbrauch und die Nutzerfreundlichkeit!
Und für Benchmarks und solchiges schaut euch mal den Artikel in der CHIP an!
Siehe folgenden Link:
http://www.chip.de/artikel/c_artikelunterseite_11828789.html
Die Bildergalerie gibt guten Aufschluss über das was kommen wird!
Ist alles von der ATI Vorstellung der X800 Pro und XT!!!!
Also neuster Stand der Dinge! ;-)
Und da liegt die NVIDIA im Direkten Vergleich schon recht weit wieder hinten!
Selbst das Demo-Video zu neuen Kerte würde auf meiner 9800XT nur auf 3FPS laufen!
Sehr deprimierend! :-(
Also mein Fazit ist einfach:
Der Hersteller der als erstes seine Karte rausbringt und vorstellt wird vom anderen Hersteller zu 100% überboten und so geht das immer wieder hin und her!
P.S.: Ich würde mir die ATI kaufen, weil naja 1,6ns Speicher mit dem neuen GDDR3!! :-)
Einfach super, spitzen Klasse! ;-)
Ich würde warten bis die karten auf dem markt sind und nochmal richtig getestet wurden(keine vorserien Produkte)!!
Und wenn dann Nvidia vorne ist in denn spielen (Nicht Benchmark -braucht kein mensch) und vom preis mit ATI gleich auf liegen sollte
und sich auch gut takten lässt kauf ich die und wenn ATI in denn sachen besser ist kauf ich halt ne ATI!!
Aber bis dahin dauerts noch, denn meine beiden 5950U + 9800Pro reichen noch lang hin!!
Wenn ich mir die ReferenzKarte von N-Vidia betrachte kann ich
nur sagen "welcher Idiot hat die entworfen"
Bläst die heisse Luft in den Computer anstatt nach draussen,
hoffentlich sind die Clons besser.
mfg der aldixx
Das macht doch gar nichts! Ob nun ins Gehäuse oder raus!!
Bedenke mal den Luftstrom den warme Luft macht!
Warme Luft steigt immer nach oben!
Die CPU und Northbridge sitzen genau über der GraKa! Das heißt hier kommt sowieso nur die Luft der RAMs hin! Aber das kommt sie bei ner Karte die rausbläst auch!
Die VPU-Abluft kann nur hinter der Karte und an der Seite hoch!
Also total egal! :-)
Mit 2 Gahäuselüfter hat sich das eh geregelt!
Und die hat sowieso jeder! Und der der nicht wird sich an den etwas erhöten Temps nicht stören! :-(
Wenn"s dir egal ist, ist"s mir auch.
Ich brauch eh ne richtige GraKa.
mfg der aldixx
