Archiv Prozessoren 8.660 Themen, 54.742 Beiträge

News: Probleme mit Verwaltungsaufwand

Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig

Michael Nickles / 27 Antworten / Baumansicht Nickles

Intels aktuell fettester Prozessor hat 48 Kerne drinnen. Der Single-Chip Cloud Computer (SCC) ist ein "Forschungs-Prozessor", der aktuell nur an Entwickler herausgegeben wird.

Anlässlich der Supercomputerkonferenz SC10 haben Intel-Entwickler jetzt abermals bekräftigt, dass die Architektur des SCC extrem skalierbar ist, sich einfach um mehr Kerne erweitern lässt. Zumindest theoretisch. Praktisch liegt die Grenze aktuell wohl bei maximal 1.000 Kernen.

Ab dann wird der "Verwaltungsaufwand" fürs "Zusammenschalten" der Kerne so hoch, dass sich durch noch mehr Kerne kein Geschwindigkeitszuwachs mehr rausholen lässt. Das ist die Ecke an der jetzt getüftelt wird, um die absehbare 1.000 Kerne Schallmauer zu durchbrechen.

Michael Nickles meint: Technisch gewiss faszinierend, aber selbsterklärend natürlich Zukunftmusik im Hinblick auf den Desktop-PC-Massenmarkt. Man sieht ja, wie schwer sich Programmierer heute noch tun, bereits mehr als "2 Kerne" auszureizen.

GAMA7 Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

Es gibt doch schon seit Jahren Mulit-CPU Systeme bzw. Mehrkernprozessoren. Die Kunst liegt tatsächlich in der Bereitstellung geeigneter Software. Evtl. erinnert sich noch jemand an das Sega Saturn, das 1995 in Europa auf dem Markt kam. Die Konsole hatte zwei CPUs und sechs weitere Prozessoren. Die Programmierung war so schwer, dass man die ganze Performance nie nutzen konnte. Die Folge waren Spiele, die auf eine CPU zugriffen. Das sieht heute leider nicht viel besser aus.

reader Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

man flog zum Mond mit weniger Rechenleistung als mein Handy hat, man sollte vielleicht mehr mühe in saubere Programmierung und Ausbildung der outsource Möchtegern coder legen, aber damit lässt sich ja keine neue hardware verkaufen... MS führte es ja mit Win7 vor - "keine treiber, aus und vorbei" ohne plausiblen grund.
das zeigt doch eigentlich wie verzweifelt Methoden sind neue Hardware zu verkaufen was wohl aus der fehlenden Notwendigkeit folgt.

Xdata Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

So ist es,
im Alltagsbetrieb, mit halbwegs normalen Anwendungen, ist es erstaunlich wie gut noch ein moderner 1-Kerner funktioniert.
Zum Beispiel der Celeron 420 im Vergleich zu einer Äquivalenten mit 2 Kernen.

Viel weniger als die CPU Ranglisten mit ihren Benchmark Balken suggerieren..

|dukat| Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

Die Einführung der Mehrkern CPUs war Intels größter Geniestreich. Auf dem Papier waren diese neuen Dinger doch viel schneller als ein Einkerner der Vorserie, weil die Benchmarks die Leistung beider CPUs addierten. Wenn mann aber bedenkt, dass die damalige Software nur einen Kern nutzten konnte, wo ist dann der fette Leistungsvorsprung hin? Kundenverarsche. Und während nur ein Kern läuft ist so eine Intel CPU natürlich super kühl und kann mit leisem Kühler daherkommen. Aber wehe, die 2 Kerne werden mal richtig genutzt. Dann sieht man mit einem boxed Kühler aber alt aus. Kundenverarsche.

Und so geht das jetzt anscheinend weiter. Dabei kann die Hälfte meiner genutzten Anwendungen nach wie vor den zweiten Kern gar nicht nutzen. Ich nutzte 1 CPU, zahl dann aber demnächst für 10, ja?

Und warum zur Hölle wehrt sich keiner gegen den Scheiss? Alle immer ganz begeistert. Danke Fachpresse.

Und mal ganz nebenbei. Schon bei der letzten Einkern-Prozessor-Generation vor Einführung der Multikerner war Multithreading gar kein Problem mehr. Die CPUs haben das super bewältigt.

dalai |dukat| „Die Einführung der Mehrkern CPUs war Intels größter Geniestreich. Auf dem...“
Optionen
Die Einführung der Mehrkern CPUs war Intels größter Geniestreich.
Ich darf daran erinnern, dass AMD den ersten echten Dual Core auf den Markt brachte, während Intel nur 2 Dice auf den Träger klebte.

Aber wehe, die 2 Kerne werden mal richtig genutzt. Dann sieht man mit einem boxed Kühler aber alt aus.
Wer hindert dich daran, eine CPU mit einer geringen TDP zu kaufen oder einen alternativen Kühler zu montieren? Übrigens müssen gute Kühler auch nicht teuer sein, sofern man sich vorher etwas informiert.

Dabei kann die Hälfte meiner genutzten Anwendungen nach wie vor den zweiten Kern gar nicht nutzen.
Und weiter? Nicht jede Software kann mehrere Dinge parallel machen, aber das heißt noch lange nicht, dass das System davon nicht profitiert, schließlich laufen auch auf deinem PC mehrere Prozesse gleichzeitig, die das OS auf die verfügbaren CPUs/Kerne verteilt.

Und warum zur Hölle wehrt sich keiner gegen den Scheiss?
Weil das nach dem Megahertz-Wahn der einzige Ausweg in Richtung mehr Leistung war. Klar, Ottonormal braucht die nicht zwingend, aber es gibt noch andere Anwendungsgebiete, wo die Leistung durchaus händeringend gesucht wird. Andererseits bleibt die Softwareentwicklung auch nicht stehen und daher ist abzusehen, dass auch normale Menschen immer wieder mehr Leistung im PC brauchen werden.

Wobei ich dazu sagen muss, dass die Softwareentwickler teilweise echt schlampen mit der verfügbaren Leistung, so nach dem Motto: "wir ham's ja". Erst vor einigen Monaten eine Software gehabt, die 50% CPU-Last verursachte, wenn nur der Mauszeiger über dem Programmfenster schwebte, die Software aber nichts tat.

Und mal ganz nebenbei. Schon bei der letzten Einkern-Prozessor-Generation vor Einführung der Multikerner war Multithreading gar kein Problem mehr.
Klar, die Single Cores haben Prozesse, die die Kiste vollständig ausgelastet haben, super bewältigt, und das auch noch so, dass die Kiste noch zu bedienen war. Lüg dir doch nicht selbst in die Tasche. Und von der Verarbeitung mehrerer Threads gleichzeitig will ich gar nicht reden, denn das was du meinst, ist Pseudo-Parallelität, während Mehrkern CPUs echte Parallelität bringen.

Selten habe ich einen so gequirlten Quark gelesen, sorry.

MfG Dalai
Fieser Friese dalai „ Ich darf daran erinnern, dass AMD den ersten echten Dual Core auf den Markt...“
Optionen
... dass die Softwareentwickler teilweise echt schlampen mit der verfügbaren Leistung, so nach dem Motto: "wir ham's ja". ...

Genau darin liegt ein nicht unerheblicher Teil begraben...
Xdata |dukat| „Die Einführung der Mehrkern CPUs war Intels größter Geniestreich. Auf dem...“
Optionen

Mit speziellen Anwendungen ist es mit mehreren Kernen schon schneller, aber nicht immer für Anwendungen des Alltags.

Von Spieleanwendungen mal abgesehen, welch ein verschwindend geringer Anteil der User macht den schon Videoschnitt oder andere Geschichten die die vielen Kerne wirklich nutzen..?
Was heutige Rechner nicht selten brauchen ist viel RAM
und eine schnelle CPU.
Dies aber auch nur weil zB. miserabel programmierte Flash Videos selbst mit nicht ganz so alten Kisten sonst ruckeln. Beispiel -
www.cubedtv.com/

Diese ganzen "Schnellebalken" in Benchmarktests konditionieren in unrealer Weise die Quad und Six Core CPUs

Etwa als sei ein E8400 mit seinen 2 Kernen schon alt, ein AMD 5000+ erst recht
und ein E1200 oder gar ein Celeron 420 geradezu verschwindend langsam.

Sind sie nicht, jedenfalls nicht bei genügend RAM und den diesen CPUs angemessenen Einsatz -Bereichen.
Sogar mittleres HD ist wohl möglich.

Und die kleineren Clarkdale? Muß man sich da nicht schon anstrengen um wirklich nativ deutlich schneller zu sein?

Erstaunlich warum der i5-750 mit seinen 4 Kernen aber nur 2.67GHz, in den Benchmarks so viel schneller wegkommt.. Konditionierung?
Da der aber überall gut weggkommt ist er viellecht doch gut :-)


@dalai,

ist wenigstens Hyperthreading ein Vorteil, oder auch nur eine Art Pseudo Parallelität?

Das gute Abschneiden des i5-750 spricht ja dafür, Hyperthreading für nicht zwingend notwendig zu halten.

ps

"....Software gehabt, die 50% CPU-Last verursachte, wenn nur der Mauszeiger über dem Programmfenster schwebte, die Software aber nichts tat."

Genau das bringt es auf den Punkt.. !

Den Eindruck habe ich manchmal auch.

elvis2 |dukat| „Die Einführung der Mehrkern CPUs war Intels größter Geniestreich. Auf dem...“
Optionen

warum regst du dich den so auf? dann kauf keinen 10 kerner prozesor und du bist zufrieden.

GAMA7 Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

Wenn ich mit meinem PC normal arbeite, ist das System in der Regel dermaßen mit dem Leerlaufprozess belastet, dass man irgendwann auf die Idee kommen könnte, diesen auf mehrere Kerne aufzuteilen.

Die PCs werden heutzutage immer schneller, aber wann genau haben wir eigentlich den Punkt überschritten, wo man darüber noch glücklich war? Heute muss man künstlich Anwendungsfälle erschaffen, die diese Leistung gerechtfertigen. Was früher das DVD transkodieren war, sind heute die BlueRays usw.

Xdata GAMA7 „Wenn ich mit meinem PC normal arbeite, ist das System in der Regel dermaßen mit...“
Optionen

"..künstlich Anwendungsfälle erschaffen.."

Das auch, aber das meiste ist heute zum Teil trägeste Bloatware.
Vor nicht allzulanger Zeit konnte ich noch mit einem ollen Rechner mit Sis Chipsatz, nur 256MB RAM und 32MB AGP Karte und - Vista!
das Flashvideo eines bei Lidl vorgestellten i7 Rechners mit X58 Motherboard ohne Ruckeln abspielen.

Bin mir nicht sicher, ob ebendieser damals vorgestellte X58 Pc sein eigenes Werbevideo heute noch flüssig abspielen könnte...
So aufgeblasen und anscheinend schlecht programmiert sind einige solcher Internet Animationen inzwischen schon geworden.
Als Beispiel hab ich schon oft ..
www.cubedtv.com/
gepostet.

Damit kannn man die Internetleistung seines Rchners testen.
Besonders die der CPU, obwohl die Grafikkarte auch einen kleinen Anteil hat.


Bald braucht man wohl einen 8 Core um "Hello World" auf dem Schirm auszugeben.

GAMA7 Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen
Bald braucht man wohl einen 8 Core um "Hello World" auf dem Schirm auszugeben.

Es gab früher mal die Theorie, dass Microsoft absichtlich Bremsen in Windows einbaue, um den Hardwareverkauf anzutreiben. Ob das stimmt, kann keiner sagen. Aber ein Windows XP von 2001 müsste auf heutigen Rechnern rennen! Stattdessen wurde bzw. wird es mit Service Packs und Patches geflickt, bis am Ende etwas heraus kommt, was intern so nie geplant war.
Xdata GAMA7 „ Es gab früher mal die Theorie, dass Microsoft absichtlich Bremsen in Windows...“
Optionen

Bei Vista waren anscheinend einige Systembremsen eingebaut.
Hat man da - automatische Updates und einiges andere nicht nötige Zeug entfernt, lief es wie gesagt sogar mit 256MB.
Mit einschränkungen Akzeptabel.
Heute geht sowas allein wegen der Browser nicht mehr gut.

Schuld sind auch Default viel zu hoch eingestellte Videos ud Co. im Internet.
Alte Grafikkarten, aber auch alte CPUs kommen da nicht mehr mit.
Sowas hat mein AMD 600er SLot früher noch locker gepackt.
Heute hat ein alter Celeron Pentium 4 schon Probleme.

Ein modernerer 420ger Celeron mit einer modernen Onboardgrafik aber noch gut.
An der Anzahl der Kerne liegt es nicht immer.
Die modernen CPU klassen sind einfach schneller bei solchen Dingen. nichtmal einen hohen Takt brauchen die dafür.

Erstaunlich gut hält eine alte 2200+ CPU mit ihrem winzigen Keramik DIE durch ;-)

ps

Ganz dumm ist es bei vermeintlich moderner Hardware gelaufen.
-- Gemeint sind die SSD!
Schnell, teuer, aber dumm, da die anscheinend nicht
-- aus eigener Kraft laufen.

Um die mit dem schnellen Xp zu betreiben muß man ziemliche Bockspünge machen.
Das hat nicht nur mit dem vermeinlichen Alter von Xp zu tun.

Die Dinger sind einfach noch nicht ausgereift!
Soll heißen, sowohl vom Betriebssystem wie sogar vom Dateisystem abhängig.

Die alten Daten bleiben da wohl einfach drauf, bis sie voll ist.
Von Umwegen wie Trim Befehlen mal abgesehen.
Die die Platte aber nicht selber kann, sondern auf das Bs angewiesen ist.
Ein Paradies für Datendiebe.

Systemcrasher Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

Ich finde diese Diskussion einfach nur lustig. ;)

Warum regt Ihr Euch eigentlich auf, daß Eure Rechner immer langsamer werden?

Seit ich auf Linux umgestiegen bin, werden meine Rechner immer schneller (gefühlt).

Neuster Rekord: Ruckelfreies Internetfernsehen auf nem 430-MHz-Celeron.

Ok, für HD-TV muß ich dann doch meinen "schnellen" 1 GHz-Rechner hochfahren. ;)

Eine VCD habe ich mir sogar schon mal auf nem 300-MHz-Laptop (128 MB) angeschaut. Ruckelfrei, versteht sich.

Es gibt genug Software, doe für betagte Rechner hervorragend geeignet ist und auch weiter entwickelt witrd (d.h., der Code wird dahingehend optimiert, daß die gewünschte Funktion schneller wird und trotzdem stabiler).

Man muß halt nur über seinen MS/MAC-Tellerrand hinausblicken....

Xdata Systemcrasher „Ich finde diese Diskussion einfach nur lustig. Warum regt Ihr Euch eigentlich...“
Optionen

Nicht ganz;-)

Da mußt du schon ein gaanz altes Linux nehmen.
Eine Live CD mit KDE 4 startet mit 500MB garnicht mehr durch, bekommt ständig Restart Orders.
In Bezug auf RAM Verbrauch wird ein halbwegs aktuelles Linux von Windows
-- geradezu an die Wand gespielt, sogar von Vista.
Was du sagst stimmt teilweise für Linux Mint;
bei vielen anderen Versionen sieht es wegen fehlender Beschleunigung Default erstmal nicht gut aus.

Zugegeben, zu Zeiten von KDE 3.x sah es oft umgekehrt aus.

Der Unterschied bei den neuen Linux Versionen scheint zu sein,
ab einer gewissen RAM Menge steigt der Bedarf kaum noch an!
Da wird die Verknüpfung der Anwendungen zum Vorteil,
da dann eben schon fast alles drin ist :-)

Bei Drag und Drop muß sich sogar das neue Windows 7 dem alten Xp geschlagen geben.

Und Linux? Das schnellste was ich je hatte war eine Suse Enterprise.
Aber wie du schon sagst,
richtig ausgesucht kann man seine alten, fast liebgewordenen Schätzchen,
mit beiden Systemen Betreiben.

Letztlich trägt Linux doch den Rekord:
Ein alter txPro mit 64MB RAM lief früher von einer alten
Quantian Live CD aus, noch gut für Internet.

ps

Und bei "großen Geschichten" a la 1000 CPUs hat Windows
gegen Linux wohl garkeine Chance mehr!

Unbegrenzte Skalierbarkeit oder so heißt dies wohl.

|dukat| Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen
Ich darf daran erinnern, dass AMD den ersten echten Dual Core auf den Markt brachte, während Intel nur 2 Dice auf den Träger klebte.
Tatsächlich? Asche auf mein Haupt.


Wer hindert dich daran, eine CPU mit einer geringen TDP zu kaufen oder einen alternativen Kühler zu montieren? Übrigens müssen gute Kühler auch nicht teuer sein, sofern man sich vorher etwas informiert.


Keine Angst. Ich setzte immer einen Zalman Vollkupferkühler drauf. Aber Otto Normal macht das nicht. Und ich darf dann antreten zur Fehlersuche, weil die Gemüserechner eben alle mit minimalster Kühlleistung ausrüstet sind. Dank Herstellerspezifikation. Weil die Spezifikationen anscheinen in Silicon Valley in vollklimatisierten Räumen ausgeknobelt werden. Anders lässt sich die schlechte Kühlleistung eines Boxed Kühlers nicht erklären.


Und weiter? Nicht jede Software kann mehrere Dinge parallel machen, aber das heißt noch lange nicht, dass das System davon nicht profitiert, schließlich laufen auch auf deinem PC mehrere Prozesse gleichzeitig, die das OS auf die verfügbaren CPUs/Kerne verteilt.


Jo, hast recht. Ich bin über die 10 prozentige Auslastung auf dem zweiten Kern auch total aus dem Häuschen. Die doppelte Leistung in einem Kern wäre mir trotzdem lieber, dann wäre ich auch gern bereit davon 5% Leistung für die Peripherie herzugeben, wenn ich die restlichen 95% für die Anwendung nutzen könnte, anstatt lausiger 50%.

Weil das nach dem Megahertz-Wahn der einzige Ausweg in Richtung mehr Leistung war. Klar, Ottonormal braucht die nicht zwingend, aber es gibt noch andere Anwendungsgebiete, wo die Leistung durchaus händeringend gesucht wird. Andererseits bleibt die Softwareentwicklung auch nicht stehen und daher ist abzusehen, dass auch normale Menschen immer wieder mehr Leistung im PC brauchen werden.


Was spricht den gegen den Einsatz von mehr Pipelines in einen einzigen "breiten" Kern, anstatt 2 Kerne nebeneinander zu setzen?

Klar, die Single Cores haben Prozesse, die die Kiste vollständig ausgelastet haben, super bewältigt, und das auch noch so, dass die Kiste noch zu bedienen war. Lüg dir doch nicht selbst in die Tasche. Und von der Verarbeitung mehrerer Threads gleichzeitig will ich gar nicht reden, denn das was du meinst, ist Pseudo-Parallelität, während Mehrkern CPUs echte Parallelität bringen.

Naja, wenn sich nicht einer der Anwendungen unerwartet fehlerhaft verhält, dann ging das super. Nicht unbedingt unter Win98 aber seit Win2k auf jeden Fall. Und Win2k habe ich bis 2009 genutzt, weil es gerade in der Speichernutzung sehr sparsam war und mit aktueller Hardware superschnell auf meine Eingaben reagiert hat. Tabbing zwischen zwei Anwendungen ging genauso schnell wie mit meinem derzeitigen Mehrkerner auf XP Basis. Meistens warte ich beim Tabben nämlich auf die Festplatte, und nicht unbedingt auf den Prozessor.

Gehörst Du vielleicht zur Fraktion der Geduldlosen die nach 2 Sekunden ihren Finger auf dem Resetschalter haben?

Aber is ok, halt es für gequirlten quark und werde glücklich. Für mich als Otto Normalanwender sind die Mehrkerner ein Ärgernis. Ich hätte auch einen vernünftigen Singlecore gekauft, wenn es den 2009 noch gegeben hätte.



dalai |dukat| „ Tatsächlich? Asche auf mein Haupt. Keine Angst. Ich setzte immer einen Zalman...“
Optionen
Was spricht den gegen den Einsatz von mehr Pipelines in einen einzigen "breiten" Kern, anstatt 2 Kerne nebeneinander zu setzen?
Ich bin sicher, die Prozessorhersteller haben schon diverse Möglichkeiten durchgedacht, aber es steht dir frei, ihnen deine Vorschläge zu unterbreiten, wenn du meinst, es besser zu wissen.

Naja, wenn sich nicht einer der Anwendungen unerwartet fehlerhaft verhält, dann ging das super.
Es geht nicht nur um wildgewordene Anwendungen - auch wenn die natürlich alles in den Schatten stellen können, sondern auch um Hintergrundprozesse wie z.B. das Packen von Daten, Videokodierung oder ähnliche Geschichten. Wenn sowas im Hintergrund läuft, kann man nicht mehr vernünftig mit der Kiste arbeiten, es sei denn, man hat mehrere CPUs/Kerne. Klar kann man die Priorität reduzieren, aber warum sollte man das, wenn man genügend Ressourcen in Form von Kernen hat oder haben kann?

Gehörst Du vielleicht zur Fraktion der Geduldlosen die nach 2 Sekunden ihren Finger auf dem Resetschalter haben?
Nein, aber ich will flüssig arbeiten und deine Ausführungen (Argumente kann man das ja nicht nennen) haben mich auf die Palme gebracht, weil es schlicht Unsinn war (und immernoch ist).

MfG Dalai
GAMA7 Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen
Seit ich auf Linux umgestiegen bin, werden meine Rechner immer schneller (gefühlt).

Den Wechseln auf Linux habe ich schon seit längerem hinter mir, deshalb kann ich diese Aussage so pauschal nicht im Raum stehen lassen. Wie Xdata bereits gesagt hat, sollte man auch ein Linux aus der Zeit des Rechners nehmen. Die Entwicklungen im Bereich der freien Betriebssysteme bremsen Hardware, die vor ein paar Jahren stehen geblieben ist, leider aus. Das ist ja auch selbstverständlich, wenn man sich ansieht, wie umfangreich komplex heutige Desktops mit dem Einsatz grafischer Effekte sind.
OliFre GAMA7 „ Den Wechseln auf Linux habe ich schon seit längerem hinter mir, deshalb kann...“
Optionen

Das kann ich jetzt wiederum nicht so stehen lassen.
Bei Distributionen mit den Standardeinstellungen gebe ich dir da voll recht, aber du kannst auch ein modernes Gentoo wunderbar auf einen kleinen ARM packen. Es muss auch nicht in Handarbeit sein: Ich habe auch ein wunderbar funktionierendes Debian Lenny (vielleicht nicht das Modernste, aber doch nicht "alt"), ohne grafische Oberfläche auf einem ARM mit 200 MHz und

OliFre Nachtrag zu: „Das kann ich jetzt wiederum nicht so stehen lassen. Bei Distributionen mit den...“
Optionen

mit

|dukat| Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

Also wenn ich eine Datei packe oder herunterlade, dann habe ich vielleicht eine Auslastung von etwa 60% auf beiden Kernen, da bleiben dann 40% für eine zweite Anwendung. Dummerweise ist die Festplatte dann so busy, das sämtliche weitere Anwendungen etwa doppelt bis dreimal so lange brauchen, als wenn sie alle Ressourcen bekämen. Der Gewinn ist wirklich marginal. Auf der zweiten Anwendung kann man dann nämlich nicht wirklich gut arbeiten.

Mag ja sein, dass eine Autocad Anwendung ganz toll läuft wenn man nebenbei dem Chef eine Mail schreibt und ein Video dazu konvertiert. Aber mir nützt das hier nichts. Trotzdem gibts nichts anderes als Zweikerner auf dem Markt.

Und ich wünsche mir nach-wie-vor eine CPU deren Leistung auf einen einizigen Kern genauso sprunghaft ansteigt, wie die Leistung eines Mehrkernes im Benchmark gegenüber einem Singlecore. Denn dann hätte ich mal echten Performancezuwachs auf Anwendungen die nur einen Kern verwenden, und nicht so eine Mäusekotze. Denn seit meinen Wechsel von einen 3,2er Singlecore auf einen E8400 habe ich gefühlte 25% - 50% Leistungszuwachs bei Singlecore-Anwendungen. Marginal. Und zwischen diesen beiden Systemen liegen 6 Jahre Entwicklungszeit. Da frag ich mich, was die 6 Jahre lang in der Entwicklung gemacht haben. Eierschaukeln?

OliFre |dukat| „Also wenn ich eine Datei packe oder herunterlade, dann habe ich vielleicht eine...“
Optionen

In der Zeit wurden neue Features in die CPUs gebracht, welche von den optimierten Anwendungen auch genutzt wird. Ich persönlich habe da auch bei Nutzung nur eines Kerns deutlich mehr Zuwachs gespürt. Um welchen Bereich an Anwendungen geht es denn?

Die Festplattenlast lässt sich mit ausreichend RAM und vernünftigen Cache-Einstellungen deutlich reduzieren, das wird auch durch die Integration der Memory-Interfaces in die neuen Prozessoren noch beschleunigt. Hier ist sehr viel geschehen, und das wird es auch bei Sandy Bridge / Bulldozer wieder im nächsten Jahr. Mal abgesehen von den beim Core i extra für Single-Core eingeführten Turbo-Modi, die den einzelnen Kern dann automatisch übertakten, ohne dass es Probleme gibt...

Den gleichen Leistungsanstieg wie bisher auf Einzelkernprozessoren so fortzusetzen ist technisch nicht möglich (mehr Pipelines bringen nicht viel, mehr Taktfrequenz erhöht die TDP zu sehr), bei heutigen Multitaskingsystemen aber eben auch kaum sinnvoll. Mir fällt spontan keine Anwendung ein, die einen Kern voll auslastet und zu der es kein mehrkerntaugliche Alternative gibt, aber ich lasse mich gerne eines Besseren belehren.

BastetFurry Michael Nickles „Intel: Bei CPUs mit 1.000 Kernen wird es kitzlig“
Optionen

Leistung ist nicht alles, man muss auch immer sehen, was verbraucht der Scheiß der da aufm Tisch steht eigentlich pro Stunde aufm Stromzähler?

Wenn ich mal etwas über den x86/x64 Tellerrand schiele würde ich nur zu gerne einen ARM9 Desktop haben, die Dinger sind berüchtigt dafür mit ein paar Watt bei Volllast aus zu kommen und kosten in entsprechender Stückzahl höchstens 10 $ das Stück. Verkauft nur leider keiner.

Also, liebe Hardwareentwickler, wenn das hier einer sieht, hier sitzt schon ein Kunde für ein ATX Board mit ARM9 1.2 Ghz CPU. Ich stricke auch gerne an der Software mit! :D

SoulMaster BastetFurry „Leistung ist nicht alles, man muss auch immer sehen, was verbraucht der Scheiß...“
Optionen
Leistung ist nicht alles
Da hast du schon recht, aber für deutliche Mehrleistung bin ich auch gerne bereit mehr für den Stromverbrauch zu investieren.
BastetFurry SoulMaster „ Da hast du schon recht, aber für deutliche Mehrleistung bin ich auch gerne...“
Optionen

Nur das ich bei einem GHz ARM alle möglichen Standarddesktop-Aufgaben mit einem Bruchteil des Verbrauches regele. :)

SoulMaster BastetFurry „Nur das ich bei einem GHz ARM alle möglichen Standarddesktop-Aufgaben mit einem...“
Optionen

Hast du konkrete Messungen. Aufzeichnungen???

BastetFurry SoulMaster „Hast du konkrete Messungen. Aufzeichnungen???“
Optionen

Ich brauch mir nur anzusehen was der GP2X Wiz (533 MHz ARM9) und die OpenPandora (600 MHz OMAP und 430 MHz TMS-DSP) leisten. Beides Handheldplattformen mit Linux.
Ich schreib später mehr dazu. :)

BastetFurry Nachtrag zu: „Ich brauch mir nur anzusehen was der GP2X Wiz 533 MHz ARM9 und die OpenPandora...“
Optionen

So, etwas Zeit.
Beide Konsolen haben 3D Features und können ohne weiteres normale "DivX" Filme abspielen, haben genug Rechenpower für Office und fürs Browsen. Alles andere an normalen Anwendungen läuft damit natürlich dann auch.

Das man mit so etwas keine Filme konvertiert sollte wohl jedem klar sein, aber Beispielsweise in einer Bürosituation, also eMail und Textverarbeitung, würde solch ein ARM9 voll und ganz langen.

Es gab übrigens vor kurzem mal für 30 Euro ein System was man nur umflashen musste um einen schicken ARM Server zu haben, die DockStar von SeaGate. Schade nur das die Leute die so etwas entwickeln immer so kurzsichtig sind und man immer erst reversen muss. :/
Hier mal ein Link für interessierte: http://ahsoftware.de/dockstar/