Es ist ja nicht so abwegig, sich in Sachen PC auch mal Gedanken über den Stromverbrauch zu machen. Erst recht, wenn die Teile eine hohe tgl. Laufzeit haben.
Ich frage mich nun allerdings (bin kein sonderlich versierter Elektrokenner) woraus sich der Stromverbrauch bei Grakas denn nun hauptsächlich ergibt. Ich glaubte, daß sich da Abhängigkeiten zu Takt von GPU und memory ableiten lassen, aber da kommen mir Zweifel.
Beispiel:
Einer Tabelle entnehme ich, daß am Beispiel zweier Karten mit ATI-Chip
folgende Werte auf einer Graka-Fachseite ermittelt wurden.
9600 pro mit 450/760 idle= 35W.
9800 pro mit 440/760 idle= 9W.
Die Leistungswerte sind also fast identisch, die Karten nicht um Generationen auseinander und doch ein fast 4-facher Verbrauch in Watt?
Das kann man auch bei anderen Karten und Chips so finden.
Gibts da eine Erklärung?
Grafikkarten und Monitore 26.152 Themen, 115.664 Beiträge
Gruß...Gerd
Der PC-Minister warnt: OC schädigt Rechner und Herz und kann zum vorzeitigen Exitus führen.
RV350 - Radeon 9600, 9600 Pro = 0.13µm Technik
R350 - Radeon 9800SE, 9800, 9800 Pro = 0.15µm Technik
Lesen sollte man schon!
http://www.pc-erfahrung.de/fileadmin/php-skripte/Grafikrangliste.php
Je kleiner die Transistoren auf der GPU sind, umso weniger Strom verbrauchen Sie auch.
Dazu kommt beim R350 noch ein schrottiges Design und fertig ist der Unterschied!
Der RV350 hat erheblich weniger Transistoren.
