Archiv Prozessoren 8.660 Themen, 54.742 Beiträge

News: Probleme mit Verwaltungsaufwand

Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig

Michael Nickles / 27 Antworten / Flachansicht Nickles

Intels aktuell fettester Prozessor hat 48 Kerne drinnen. Der Single-Chip Cloud Computer (SCC) ist ein "Forschungs-Prozessor", der aktuell nur an Entwickler herausgegeben wird.

Anlässlich der Supercomputerkonferenz SC10 haben Intel-Entwickler jetzt abermals bekräftigt, dass die Architektur des SCC extrem skalierbar ist, sich einfach um mehr Kerne erweitern lässt. Zumindest theoretisch. Praktisch liegt die Grenze aktuell wohl bei maximal 1.000 Kernen.

Ab dann wird der "Verwaltungsaufwand" fürs "Zusammenschalten" der Kerne so hoch, dass sich durch noch mehr Kerne kein Geschwindigkeitszuwachs mehr rausholen lässt. Das ist die Ecke an der jetzt getüftelt wird, um die absehbare 1.000 Kerne Schallmauer zu durchbrechen.

Michael Nickles meint: Technisch gewiss faszinierend, aber selbsterklärend natürlich Zukunftmusik im Hinblick auf den Desktop-PC-Massenmarkt. Man sieht ja, wie schwer sich Programmierer heute noch tun, bereits mehr als "2 Kerne" auszureizen.

dalai |dukat| „Die Einführung der Mehrkern CPUs war Intels größter Geniestreich. Auf dem...“
Optionen
Die Einführung der Mehrkern CPUs war Intels größter Geniestreich.
Ich darf daran erinnern, dass AMD den ersten echten Dual Core auf den Markt brachte, während Intel nur 2 Dice auf den Träger klebte.

Aber wehe, die 2 Kerne werden mal richtig genutzt. Dann sieht man mit einem boxed Kühler aber alt aus.
Wer hindert dich daran, eine CPU mit einer geringen TDP zu kaufen oder einen alternativen Kühler zu montieren? Übrigens müssen gute Kühler auch nicht teuer sein, sofern man sich vorher etwas informiert.

Dabei kann die Hälfte meiner genutzten Anwendungen nach wie vor den zweiten Kern gar nicht nutzen.
Und weiter? Nicht jede Software kann mehrere Dinge parallel machen, aber das heißt noch lange nicht, dass das System davon nicht profitiert, schließlich laufen auch auf deinem PC mehrere Prozesse gleichzeitig, die das OS auf die verfügbaren CPUs/Kerne verteilt.

Und warum zur Hölle wehrt sich keiner gegen den Scheiss?
Weil das nach dem Megahertz-Wahn der einzige Ausweg in Richtung mehr Leistung war. Klar, Ottonormal braucht die nicht zwingend, aber es gibt noch andere Anwendungsgebiete, wo die Leistung durchaus händeringend gesucht wird. Andererseits bleibt die Softwareentwicklung auch nicht stehen und daher ist abzusehen, dass auch normale Menschen immer wieder mehr Leistung im PC brauchen werden.

Wobei ich dazu sagen muss, dass die Softwareentwickler teilweise echt schlampen mit der verfügbaren Leistung, so nach dem Motto: "wir ham's ja". Erst vor einigen Monaten eine Software gehabt, die 50% CPU-Last verursachte, wenn nur der Mauszeiger über dem Programmfenster schwebte, die Software aber nichts tat.

Und mal ganz nebenbei. Schon bei der letzten Einkern-Prozessor-Generation vor Einführung der Multikerner war Multithreading gar kein Problem mehr.
Klar, die Single Cores haben Prozesse, die die Kiste vollständig ausgelastet haben, super bewältigt, und das auch noch so, dass die Kiste noch zu bedienen war. Lüg dir doch nicht selbst in die Tasche. Und von der Verarbeitung mehrerer Threads gleichzeitig will ich gar nicht reden, denn das was du meinst, ist Pseudo-Parallelität, während Mehrkern CPUs echte Parallelität bringen.

Selten habe ich einen so gequirlten Quark gelesen, sorry.

MfG Dalai