Es ist ja nicht so abwegig, sich in Sachen PC auch mal Gedanken über den Stromverbrauch zu machen. Erst recht, wenn die Teile eine hohe tgl. Laufzeit haben.
Ich frage mich nun allerdings (bin kein sonderlich versierter Elektrokenner) woraus sich der Stromverbrauch bei Grakas denn nun hauptsächlich ergibt. Ich glaubte, daß sich da Abhängigkeiten zu Takt von GPU und memory ableiten lassen, aber da kommen mir Zweifel.
Beispiel:
Einer Tabelle entnehme ich, daß am Beispiel zweier Karten mit ATI-Chip
folgende Werte auf einer Graka-Fachseite ermittelt wurden.
9600 pro mit 450/760 idle= 35W.
9800 pro mit 440/760 idle= 9W.
Die Leistungswerte sind also fast identisch, die Karten nicht um Generationen auseinander und doch ein fast 4-facher Verbrauch in Watt?
Das kann man auch bei anderen Karten und Chips so finden.
Gibts da eine Erklärung?
Grafikkarten und Monitore 26.152 Themen, 115.664 Beiträge
Einfache Sache:
Spannung hat nen quadratischen Einfluss auf den Stromverbrauch.
Taktfrequenz einen linearen Einfluss auf den Stromverbrauch.
Trotzt starker Verringerung der Taktfrequenz verbrauchen Stromfresser auch heruntergetaktet noch relativ viel Strom, wenn nicht gleichzeitig die Spannung reduziert wird, was oft aber nicht immer möglich ist.
Die Faktoren die in die Suppe spucken sind:
Anzahl Transistoren (viel/wenig)
Taktfrequenz (hoch/niedrig)
Core Spannung (hoch/niedrig)
Fertigungsprozess (grob/fein)
Güte des Fertigungsprozesses (er wird beherrscht/ es gibt noch viele Leckströme)
Stromsparmechanismen vorhanden (dyn. Heruntertakten?/ dyn. Spannung?)
Stromsparmechanismen funktionieren (ja/nein).
Der Grafikkarten Speicher hat natürlich auch einen Einfluss. Nach letzten Erkenntnissen jedoch einen fast vernachlässigbaren im Vergleich zum Stromverbrauch der GPU.
