OS = 17 Watt unterschied

Saliva

Orbb
Gudn Abend. Habe mir ein Messergät gekauft, dass den Stromverbrauch von einzelnen Geräten exakt feststellen kann, dabei kamen unter anderem erstaunliche Ergebnisse zu tage.

Bei meinem System zeigte sich im Idle:

Windows 2000: 192 Watt
Windows XP: 175 Watt
Ubuntu 7.10: 175 Watt

Der Unterschied von 17 Watt ist mir unerklärlich, da XP und 2000 an sich nahezu gleich aufgebaut sind. Auch sind die OS gleich konfiguriert und es laufen identische Programme mit identischen Einstellungen darauf. Auch die Grafikkartentreiber sind identisch.
Im System stecken C2D 6300, GF7800GS, 1GB DDR400 RAM, 4x7200er Platten. Der Monitor (19Zoll TFT Belinea 101910) ist ebenfalls in der Verbrauchsrechnung enthalten. Das Netzteil ist ein Enermax Liberty 400.

Als nächstes werde ich im Vergleich dazu Vista testen. Wenn es jemanden interessiert kann ich die Ergebnisse auch gerne posten (wobei ein direkter Vergleich hier nur schwer möglich sein dürfte).
 

Putin

Undead
Kannst gerne mal posten...habe vor einiger Zeit mal einen kleinen Bericht darüber gelesen...da haben die auch Vista und andere OS überprüft wer wieviel Strom verbraucht. Weis die ergebnisse nur gerade nicht mehr.
 

Burzum

Fiend
Mich mal was Ubuntu und andere Distris so schlucken. Die Unterschiede dürften hier sehr stark von der Konfiguration der Distri abhängen.
 

e.v.o

Light Guard
Ist doch klar warum das so ist:
Der alte 2k Kernel unterstützt die modernen stromsparmodi nicht...

mein persönlicher tipp sieht so aus:
XP
Vista
Ubuntu
2k

@burzum:
und auf den kernel... ich denke der dürfte hier auch noch eine wichtige rolle spielen
 

GamlerHart

Cyberdemon
Ältere NT-Kernel-System bzw ältere Linux-Kernel kennen nicht alle modernen Stromsparmodi der heutigen Komponenten, wie z.B. die CPU heruntertakten beim "idle"-Last

Ich denke, dass XP/moderne Linux-Distro am besten sind. Vermutlich steigt der Stromverbrauch aber an, sobald man Beryl/Compiz/Aero anschaltet, da dann die Grafikkarte mehr belastet wird.
 

Burzum

Fiend
@Evo
Mit Konfiguration war ALLES gemeint, ink. Kernel /etc/ auswahl der Tools usw. Kennst ja die Frickelbuden.

Originally posted by GamlerHart@24.10.07, 21:58
Vermutlich steigt der Stromverbrauch aber an, sobald man Beryl/Compiz/Aero anschaltet, da dann die Grafikkarte mehr belastet wird.
Beryl/Compiz ist jetzt wieder ein ein Projekt. Afaik hat das Ding noch keinen offiziellen Namen, nennt sich aber in der Community "Compiz Fusion".

Naja, das was es GPU Last erzeugt spart es an CPU Last ein. Es KÖNNTE unterm schnitt sogar besser abschneiden weil man ja nicht den ganzen Tag mit den Fenstern wackelt. ;)
 

Saliva

Orbb
Na da brat mir doch einer nen Storch.
Ubuntu 7.10 „Gutsy Gibbon“ liegt mit der Grundinstallation und Nvidia Treiber (sowie Compiz) exakt, wie auch XP, bei 175 Watt im Idle.

Hatte vergessen zu erwähnen, dass bei der Verbrauchsangabe ebenfalls mein Monitor (19Zoll TFT Belinea 101910) enthalten ist.

Nächste Woche ist Vista dran. Hab die DVD leider nicht hier in der neuen Wohnung.
 

e.v.o

Light Guard
was optimierungen doch so alles ausmachen können :P

Hast du das neuste Bios drauf und was für ein Board hast du?
 

Diego

Tank
Da kannste ma sehen wie sparsam Bill Gates mit Windoof XP umgeht xD

Beim OCen hab ich aber auch extreme Unterschiede festgestellt...teilweise bis zu 50 W mehr das ist
schon nichtmehr normal. Danke an dieser Stelle an den alten Daddy :fuck:
 

Saliva

Orbb
Das Mainboard ist ein ASROCK ConRoe865PE mit neustem BIOS (1.70).

Man jetzt bin ich aber mal gespannt auf Vista. Tippe es hat den höchsten Verbrauch, allein wenn ich an die CPU-Last denke.
 

GamlerHart

Cyberdemon
Ich denke auch, das Vista der höchste hat.

Aber zuerst wird vorallem der Index-Dienst rattern was das Zeugs hält. Nach einer Weile beruhigt sich das normlerweise und der Stromverbrauch wird sinken.
 

Burzum

Fiend
Originally posted by GamlerHart@28.10.07, 20:19
Aber zuerst wird vorallem der Index-Dienst rattern was das Zeugs hält. Nach einer Weile beruhigt sich das normlerweise und der Stromverbrauch wird sinken.
Der Indexdienst (Beagle ists nimmer, k.A. gerade wie das neue Programm dafür heißt) läuft ebenfalls bei Ubuntu 7.10 permanent mit.
 

e.v.o

Light Guard
Ja, nur das die Unterschiedlich funktionieren. Hatte darüber eine schöne Diskussion heute nacht, da mein SCHEISS mac os 10.5 meinen laptop fast unbenutzbar gemacht hat. diese indexdienste sind so ein krampf!

ich würde es mal sehr interessant finden was OS X im vergleich dazu verbraucht. falls du ein OS X image zum testen brauchst kann ich dir eines zur verfügung stellen. ist schon fertig gehackt und mit treibern versehen. würde mich freuen wenn du das auch testen könntest und meinen hass auf OS X bestätigst :P
 

Saliva

Orbb
Originally posted by e.v.o@29.10.07, 11:01
ich würde es mal sehr interessant finden was OS X im vergleich dazu verbraucht. falls du ein OS X image zum testen brauchst kann ich dir eines zur verfügung stellen. ist schon fertig gehackt und mit treibern versehen. würde mich freuen wenn du das auch testen könntest und meinen hass auf OS X bestätigst :P
klar mach ich gerne.
 

Saliva

Orbb
Hab immernoch kein OS X bekommen und für Vista fehlte mir bisher abermals die Überwindung ;)

So nun ein paar neue Komponenten:

Gigabyte P35-DS3
Transcend aXe 2GB DDR2 6400
GeForce 8800GT @ 660 MHz
C2D E6300 @ 2,8 GHz

Hatte schon befürchtungen ob mein Enermax Liberty 400 noch ausreichend seien würde.

Unter Windows XP 185 Watt im Idle. Hatte mit viel mehr als nur + 10 Watt im Vergleich zu den vorherigen Komponenten gerechnet o.O
 

e.v.o

Light Guard
So liebe Kinder, für alle Linux Nutzer (höhö.. ein widerspruch in sich.. das kann man auch benutzen? xD) hier noch der ultimative Stromspartip für alle Intel Nutzer:
AHCI für SATA aktivieren
bei http://www.lesswatts.org/ sich alles durchlesen und benutzen was man braucht, hier im besonderen Tickless Idle
Bei Festplatten AAM auf leise setzen (bringt vielleicht auch was..)
Mit "echo 1 > /sys/module/snd_hda_intel/parameters/power_save" ist es z.b. möglich den Audio Codec nach einem Timeout vom Strom zu trennen, usw.
Informiert euch einfach mal genauer. Hab bisher selber noch nicht rumspielen können. Ein Freund hat es mit allen Optimierungen von 200 Idle Ticks auf 30 runtergeprügelt und er meint es ist noch ein wenig Platz für Optimierungen.

Z.b. könnte man dem ganzen mit dem ICC zu leibe rücken und den TI8718 deaktivieren (da hängt LPT/COM/Floppy dran).
 

/monti[licious]

Super Soldier
Viel sinnvoller ist es die CPU zu undervolten und gescheite 2D Settings für die Graka zu flashen. Da kann man wirklich effektiv was sparen.
Und im Idle kann man ja auch entspannt den Multi senken, da man die Leistung eh nicht brauch (z.B. zum surfen). Man kann natürlich einfach EIST oder CnQ aktivieren.

Aber danke für die Hinweise evo, werde die mal einem Mate zukommen lassen.

Aber wer wirklich Strom sparen will, kauft sich entsprechende Komponenten oder einen Lappy (natürlich kein Desktop-Replacement Gamer Notebook).
 

e.v.o

Light Guard
Ja, das hatte ich vergessen auch noch zu schreiben:
RAM undervolten
CPU undervolten

EIST ist bei solchen Systemen std. aktiviert. Viel interessanter wäre es den Multi auf den niedrigsten Wert zu locken wenn man nicht spielt oder arbeitet und nur bei bedarf volle leistung geben.

Was meinst du mit 2D Settings flashen? Was soll ich denn da umflashen? 0o
 

/monti[licious]

Super Soldier
Zum Beispiel bei den aktuellen ATi Karten kann man die Spannung per Bios heben und senken. So kann man für den 2D Modus die Spannung noch weiter senken und die Taktraten noch mehr reduzieren. Der 2D-Takt von zB der HD3870 ist zwar schon sehr stomsparend, aber da geht immer noch etwas mehr nach unten. Bei der 8800GT sollte das genauso möglich sein. Und ansonsten haben ja fast alle aktuellen Grafikkaten einen 2D-Takt, den man natürlich noch weiter senken kann. Man muss nur gucken wie niedrig der Takt geht, so dass die Karte nocht stable ist und dann einfach die Taktraten flashen.
Und natürlich nie, aber auch nie darüber nachdenken Vista zu benutzen. ;) Dank dem tollen 3D-Beschleunigten Aero, geht die Kate nämlich nie in den 2D Takt, jedenfalls bei Nvidia nicht. Das liegt zwar nicht am Betriebsystem, sondern an Nvidia, aber dennoch ist es unschön. :)
 
Top