Archiv Prozessoren 8.660 Themen, 54.742 Beiträge

Sind Ghz wirklich schneller als Mhz Prozessoren?

papa-frank / 22 Antworten / Flachansicht Nickles

Ich weiß was einige von euch jetzt denken. Was ist denn das für eine Frage? Nun ich habe einen Grund, der mich annehmen läßt, das Ghz Prozessoren nicht wirklich viel schneller sind als Mhz Prozessoren und zwar ist das die Verlängerung der Pipeline. Wieso muss die Überhaupt verlängert werden? Würde das nicht bedeuten, das der Prozessor die Bearbeitungsstufe nicht in dem angegebenen Takt ausführen kann? Und wenn dem so ist, dann schafft die Elektronik die Ausführung der Bearbeitung nicht in der kurzen Zeit, sprich sie ist dafür zu langsam. Sind Ghz Proz wirklich taktmäßig schneller, als Mhz Proz.
Wieso bekomme ich bei einem 1,6 Ghz Prozessor beim Aufrufen eines Kontextmenü die Sanduhr zu sehen? Warum kann ich immer noch mit einem 200 Mhz Proz genauso gut arbeiten, wie vor 13,6 Jahren?

Andreas42 papa-frank „Sind Ghz wirklich schneller als Mhz Prozessoren?“
Optionen

Hi!

Schönes Thema! Über CPU-Entwicklung der letzten Jahre und deren Sinn und Zweck kann man herrlich diskutieren und streiten. Vorallem, weil keiner von uns genug davon versteht - ich auch nicht. ;-)

Die sprichst den CPU-Takt an und dass einige Anweisungen nicht darin ausgeführt werden können. Das ist AFAIK in der Tat so und auch normal. Einzelne Assemblercode-Anweisungen (=CPU-Befehle) benötigen in der Tat unterschiedliche Taktanzahlen zur Ausführung. Schnelle Befehle benötigen einen CPU-Takt und langsamere entsprechend mehr.

Früher gabs da einen direkten CPU-Philosophie-Streit: RISC gegen CISC

Die RISC-Fraktion wollte wenige einfache CPU-Befehle, die in einem Takt bearvbeitet wurden. Die CISC-Fraktion viele mächtige Befehle, die dann auch gerne mal 20 oder mehr Takte benötigen durften.
Der MOS6510 des Commodore 64 gehörte fast zur RISC-Fraktion. Diese CPU "erledigte" ihre Befehle innerhalb weniger Takte, konnte aber z.B. keine zwei Integer-Werte multiplizieren. Die CPUs der ersten PCs konnten das AFAIK brauchen dann aber zweistellige Takte zur Ausführung. Gut, beim C64 musste man das dann eben programmieren udn dann brauchte die Multiplikation auch zweistellige Taktanzahlen...

Irgendwann hat man dann erkannt, dass die reine Lehre in die Sackgasse führt (wie so oft im Leben, wenn man keine Kompromisse eingehen will).

Wenn RISC und CISC getrennt nicht optimal ist, warum dann nicht beides zusammen? Das ergebnis nennt sich "Microcode" udn steckt heute noch in jeder CPU.

Die CPU nutzt einen Kern einfachster interner Commandos und übersetzt bzw. zerlegt komplexe Befehle in diesen Microcode (ich stelle mir das wie einen Programm und einen Interpreter in der CPU vor).

Soweit ich das verstehe kommt dann mit dieser internen Umstellung auf Microcode diese ganze Pipeline-Optimierungsgeschichte ins rollen: wenn man den Microscode umsortiert kann das die Ausführung erhöhen. Dazu braucht man Puffer, die die benötigten Microcode-Befehle speichern und "auf Vorrat" halten. Dieser Puffer ist die Pipeline (glaube ich, da hört es dann so langsam bei mir auch mit den richtigen Vorstellungen...).

Irgendwann stösst die Pipelineverlängerung udn die ganze Sortierung natürlich auch an ihre Grenzen und dann kommt das, wo wir heute stehen: bei Multi-Core-CPUs. Wenn ein Kern an der Grenze der möglichen Taktfrequent steht, lautet die logische Erweiterung "pack einen Kern dazu"...

Im Moment optimieren die Hersteller an den Cache und Speicherzuordnungen herum, da scheint es bei mehreren Kernen noch Optimierungspotential zu geben.

Was danach kommt?

Meiner Meinung nach nichts mehr. Man sieht ja, dass "lahme Enten" wie der Atom heute für viele Dinge schnell genug sind und immer mehr Leute mehr zu kleinen spezialisierten Geräten wie Smartphones und iPads greifen wollen.

Zur letzten Frage: Warum kann man mit einem alten Rechner so gut arbeiten wie mit einem neuen?

Darauf habe ich zwei Antworten:

Meine ketzerische Antwort: weil ich mir das selbst einrede.

Meine nüchterne Antwort: weil der alte Rechner ausreicht.

;-)

Wenn ich mein jetziges Auto mit dem von vor 20 Jahren vergleiche, da gewinnt das aktuelle: es ist leiser, braucht weniger Sprit, hat mehr PS, eine Klimanalage, mehr Platz und Navi nutze ich heute auch. Vor 20 Jahren auch 2 Stunden nach Hause gebraucht, heute auch (wenn ich nicht weiter weg gezogen wäre). Trotzdem möchte ich nicht mehr tauschen.

Mit meinen alten Rechnern klappt Internet, Schreiben und Bilderverwalten auch schon, so wie mit dem aktuellen (der auch schon über 1 1/2 Jahre alt ist). Dass ich da aber nicht mehr zurück möchte liegt weniger an der Rechenleistung, sondern daran, dass ich mit heutigen Plattengrössen und USB-Sticks, endlich zum ersten Mal überhaupt keine Platzprobleme beim Datentransport mehr habe. Was war das vorher ein Gehampel mit den Disketten den CDs und dem DVD-Gemurkse - nö, da will ich nie mehr hin!

Für mich ist heute mit den 1TByte-Platten im Rechner und den USB-Platten im 200GByte-Bereich und den 16GByte-USB-Sticks zum ersten mal die Grenze erreicht, dass ich mir darum keine Gedanken machen muss...

CPU-Rechenleistung und Takt ist da doch heute komplett vernachlässigbar (auch meiner Sicht). Ich muss immer erst überlegen, wie schnell meine aktuelle CPU nun getaktet wird. (müssten 2,5GHz sein, ich müsste aber erst nachschauen; zwei Kerne sind es aber auch jeden Fall ;-) ).

Bis dann
Andreas