Ein zeitgemäßer leistungsfähiger Intel-PC wird in Computertests meist mit 80 Watt angegeben, ein AMD mit 130 Watt. Als Durchschnitt. Wenn der Computer am Limit werkelt, wird es mehr sein, vielleicht so die Hälfte von dem was das Netzteil hergibt. Die Netzteile brauchen für Anlaufstrom und Überbrückung von Stromunterbrechungen (Sekundenbruchteile) eine gewisse Reserve. Normale Trafonetzteile würden sich so auf die volle Leistung hochrappeln, aber im Computer stecken Schaltnetzteile, die mit Überlastung praktisch nicht klarkommen. Das Schaltnetzteil zieht nur soviel Strom aus dem Lichtnetz wie der PC braucht. (Andere Netzteiltypen sind in der Beziehung weniger perfekt.)
Es liegt nicht nur daran, dass AMD-Prozzis mehr Strom verbrauchen, sondern dass sich die Mainboardhersteller oft nicht trauen bei AMD die Stromsparmodi zu nutzen. Typische Büro-PCs mit Grafik onboard, brauchen vielleicht etwas weniger. Letztlich kommt es auf das Messverfahren an und was in Deinem PC eingebaut ist und wie Du das Powermanagement einstellst (Zeiten). Der Monitor wird das verbrauchen was drauf steht. Dann spielt es noch ne Rolle, was z.B. Dein Drucker im Standbye verbraucht und ob Du z.B. ein Telkom-DSL-Modem hast. Usw. und so fort.
Den Strompreis musst Du aus Verbrauch und Bereitstellung berechnen. Im Mittel werden da so 17 Cent pro Kilowattstunde rauskommen. Und dann spielt es eine Rolle wieviel Stunden am Tag der PC läuft.
Dann würde ich sagen Grundrechenarten und Taschenrechner benutzen. Wenn Du es genauer wissen musst, hilft nur ein Messgerät, vielleicht eine Woche lang messen.