Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.561 Themen, 109.835 Beiträge

Nahe Zukunft - schnellere Festplatten bei zufälligen Zugriffen?

Sovebämse / 14 Antworten / Baumansicht Nickles

Hallo zusammen

Wie sieht es aus, so auf 5-10 Jahre hinaus betrachtet: Werden in absehbarer Zeit Festplatten (SSDs / neue Erfindungen) zur Marktreife gebracht, welche hauptsächlich oder auch im Bereich "zufällige Zugriffe / kleine Dateien" einen deutlich spürbaren Fortschritt zeigen? Leider werden immer nur die maximalen Übertragungsraten verbessert, aber wer braucht im Alltag Datenraten von 3.5 GB/s, aber dafür nur ca. 50 MB/s bei kleinen Dateien? Warum ist es so viel schwerer, die Übertragung von kleinen Dateien zu verbessern?

Ich habe einen genügend guten Rechner (Skylake, Samsung 850 Evo). Plane nur grad so gedanklich meine PC-Zukunft bzgl. Neuanschaffungen. Da gibt es Entwicklungen beim PCI-E Standard, beim RAM (DDR5 oder andere) usw. Aber das alles macht nur Sinn, wenn auch die Festplatten und das Internet deutlich schneller werden. Im Moment habe ich schon das Gefühl, bereits an einem Punkt angekommen zu sein, an welchem es bald nur noch sehr begrenzt Sinn macht, aufzurüsten oder einen neuen Rechner zu kaufen, da meine 16 GB RAM nur in Ausnahmefällen zu 80 Prozent belegt sind und mein Prozzi sich auch langweilt. Dafür habe ich bei vielen Tabs im Browser plötzlich Hänger, die aber eher durch Software-Probleme / schlechte Programmierung der Webseite erklärbar sind, denn durch zu langsame Hardware.

bei Antwort benachrichtigen
Alpha13 Sovebämse „Nahe Zukunft - schnellere Festplatten bei zufälligen Zugriffen?“
Optionen
bei Antwort benachrichtigen
Borlander Sovebämse „Nahe Zukunft - schnellere Festplatten bei zufälligen Zugriffen?“
Optionen
Wie sieht es aus, so auf 5-10 Jahre hinaus betrachtet: Werden in absehbarer Zeit Festplatten (SSDs / neue Erfindungen) zur Marktreife gebracht, welche hauptsächlich oder auch im Bereich "zufällige Zugriffe / kleine Dateien" einen deutlich spürbaren Fortschritt zeigen?

SSDs bieten im Vergleich zu Festplatten hier schon einen spürbaren Fortschritt (Verbesserung von IOPS um Faktor >>10), der Wegfall der mechanischen bedingten Verzögerungen (Zeitbedarf für Positionierung des Lesekopfes und warten bis der gewünschte Sektor vorbei rotiert).

Anders als die Transfergeschwindigkeit kannst Du Latenzzeiten nicht einfach durch Parallelisierung verbessern. Die hohen Transferraten erreichst Du bei Flash-Datenträgern (wie SSDs) auch nur durch Verteilung der Lese-/Schreibzugriffe auf mehrere (viele) Flash-Speicher-Chips. Datenmengen die kleiner sind als ein Flash-Block können davon nicht profitieren. Viele aktuelle SSDs mit TLC oder QLC (?) erreichen hohe Schreibgeschwindigkeiten übrigens auch nur durch Zwischenspeichern der zu schreibenden Daten in einem Bereich der als SLC angesteuert werden. Im Hintergrund wird dann auf den langsamen regulären Speicher geschrieben geschrieben. Ist der voll, dann wird es spürbar langsamer. Im Desktop-Bereich solltest Du davon aber normalerweises nichts merken, und für Servereinsatz investiert Du dann besser deutlich mehr Geld in eine dafür geeignete SSD wenn für den Einsatzzweck relevant.

Was schon so ein bisschen sichtbar ist sind Ansätze für Nicht-Flüchtige Speichermodule, die dann irgendwo zwischen RAM und SSD einzuordnen sind. Das wird aber noch länger was für Spezialanwendungen sein und ist weit entfernt von einer Generischen Nutzbarkeit ohne speziell angepasste Software. Und das wird auch absehbar kein Ersatz für SSDs. Ich empfehle Dir auch noch mal die Lektüre von https://de.wikipedia.org/wiki/Speicherhierarchie

Im Moment habe ich schon das Gefühl, bereits an einem Punkt angekommen zu sein, an welchem es bald nur noch sehr begrenzt Sinn macht, aufzurüsten oder einen neuen Rechner zu kaufen, da meine 16 GB RAM nur in Ausnahmefällen zu 80 Prozent belegt sind

Die Entwicklung ist sicher langsamer geworden, aber gerade beim RAM sehe ich nach wie vor Potenzial: Ich habe Mitte des Jahres nach knapp 8 Jahren das System getauscht, weil RAM (hatte damals gleich mit 16GB begonnen) zu knapp war. Habe nun 64GB in der Workstation und im Schnitt 30-50% mit Anwendungen belegt (gelegentlich auch schon mal mehr; habe das System auch schon mal zum Swappen gebracht...), gelegentlich auch schon mal mehr. Der Rest wird als Datenträgercache benutzt und im Ergebnis merke ich praktisch kaum ob ich gerade auf SSD oder HDD zugegriffen wird.

bei Antwort benachrichtigen
Sovebämse Borlander „SSDs bieten im Vergleich zu Festplatten hier schon einen spürbaren Fortschritt Verbesserung von IOPS um Faktor 10 , der ...“
Optionen

Hallo Borlander

Dann könnte man doch mal die SSDs ein bisschen ummodellieren, so dass verschieden grosse Speicherchips vorhanden sind. Also solche, die für kleine Dateien sind und andere für grössere. So könnte man dann auch bei kleinen Dateien mehr parallelisieren. Das Problem ist vermutlich der Platzbedarf, wenn man extrem viele so kleine Chips verbauen möchte. Aber ich meine, für den Privatanwender sind immer höhere Schreib- und Lesegeschwindigkeiten speziell bei grossen Dateien doch gar nicht mehr relevant. Im Alltagsbetrieb hantiert man nunmal eher selten mit Dateien > 100 MB (Gamer und Hardcore-User mit virtuellen Maschinen, Videobearbeitung etc. mal ausgenommen). Und beim Surfen ist es ja auch so, da hat man ja im Moment noch grösstenteils die Beschränkung auf 1 GB/s, was ebenfalls ja nur 100 MB/s sind.

Wie meinst du das mit der RAM-Entwicklung? Zwischen z. B. DDR3 und DDR4 gibt es gerade mal 2 GB/s Unterschied, wenn man die Standard-Maximaltaktungen (Intel-Spez.) vergleicht. Mengenmässig habe ich meine 16 GB auch mal knapp voll bekommen, aber das ist nur, weil ich zu faul bin, mal den Rechner neu zu starten bzw. ein paar Tabs von FF zu schliessen. Nebst dem Browser habe ich sonst keine allzu speicherintensiven Programme am Start, Gamen tue ich nie. Beim nächsten Rechner werden es sicher 32 GB, einfach weil der Speicher nicht besonders teuer ist und damit noch etwas mehr "Luft zum Atmen" da ist, aber zu noch mehr sehe ich einfach keinen Anlass. Klar kann man auch ein RAM-Drive einrichten, aber von solchen "Spielchen" lasse ich momentan die Finger.

bei Antwort benachrichtigen
Borlander Sovebämse „Hallo Borlander Dann könnte man doch mal die SSDs ein bisschen ummodellieren, so dass verschieden grosse Speicherchips ...“
Optionen
Aber ich meine, für den Privatanwender sind immer höhere Schreib- und Lesegeschwindigkeiten speziell bei grossen Dateien doch gar nicht mehr relevant.

Welche typischen Anwendungsfälle siehst Du denn bei Privatanwendern in einen ein Wahlfeier Zugriff auf viele kleine Dateien erforderlich ist? Und was hindert die betroffenen Privatanwender dann daran sich eine Server-SSD zu kaufen, die bei gleicher Größe signifikant teurer ist als eine "normale" SSD für den Hausgebrauch (aber immer noch billiger als vor einigen Jahren)? Ist offensichtlich nicht hinreichend attraktiv, weil nur die wenigstens davon im Alltag irgendwie ausgebremst werden, dass es nicht noch schneller ist (sofern es überhaupt spürbar wäre).

Wo ziehst Du eigentlich die grenze zwischen kleinen und großen Dateien? 50MB/s ist übrigens alles andere als Wenig. Das wären immer noch 1000 Dateien mit 50KB Größe, oder 10000 mit 5KB…

Dann könnte man doch mal die SSDs ein bisschen ummodellieren, so dass verschieden grosse Speicherchips vorhanden sind. Also solche, die für kleine Dateien sind und andere für grössere. So könnte man dann auch bei kleinen Dateien mehr parallelisieren. Das Problem ist vermutlich der Platzbedarf, wenn man extrem viele so kleine Chips verbauen möchte.

Die SSD weiß nichts davon ob gerade eine "große" oder "kleine" Datei geschrieben wird, und merkt auch nichts davon wenn eine "kleine" Datei irgendwann "groß" würde. Rein auf Hardwareebene wäre das somit schon nicht lösbar. Auch müsste man dann schon im Vorfeld wissen wie groß der Anteil von kleinen Dateien mal sein wird die man speichern will.

Abgesehen davon musst Du auch bedanken, dass gerade die Zusammenfassung von Speicherzellen das ist was Flash-Speicher vergleichsweise günstig macht in der Herstellung. Das wiegt in der Praxis schwerer als die Nachteile, bzw. die Mehrkosten zu Alternativen. Und der Umstand, dass die Flash-Blöcke größer geworden sind und man im Regelfall nicht mehr teure (und schnellere) SLC-Zellen verwendet ist natürlich auch das Ergebnis von Abwägungen.

Sofern also nicht noch ein Einhorn vorbeifliegt und eine neue Speichertechnologie auspupst, solltest Du nicht damit rechnen dass hier in den nächsten 5 Jahren ein Riesen Sprung in der Technologie stattfindet.

bei Antwort benachrichtigen
Borlander Sovebämse „Hallo Borlander Dann könnte man doch mal die SSDs ein bisschen ummodellieren, so dass verschieden grosse Speicherchips ...“
Optionen
Wie meinst du das mit der RAM-Entwicklung?

Bei der Menge ist Potenzial da. Und da profitiert man bei DDR4 von deutlich geringerem Energiebedarf als bei DDR3.

Klar kann man auch ein RAM-Drive einrichten, aber von solchen "Spielchen" lasse ich momentan die Finger.

Ich würde den RAM lieber für den Datenträgercache freihalten, weil die Damit verbundene Beschleunigung nicht auf Zugriffe einer RAM-Disk beschränkt ist. Sehe insgesamt auch nur wenig Szenarien in denen eine RAM-Disk eine gute Lösung ist…

bei Antwort benachrichtigen
gelöscht_323936 Borlander „Bei der Menge ist Potenzial da. Und da profitiert man bei DDR4 von deutlich geringerem Energiebedarf als bei DDR3. Ich ...“
Optionen

Danke für die ausführliche Lektion und die Zusammenfassungen zu neuesten Speichertechniken.

Immer wieder erstaunlich, was da in den letzten 30 bis 50 Jahren dazu gekommen ist.
Ich kenne Rechner (nicht Computer) sogar noch ohne Bits. Und Speicher war sehr knapp.

Heute hat jeder Dumme der es will - jeder Kluge der es will natürlich auch!!- einen Rechner zum Spielen zu Hause, der leistungsfähiger ist als die,  mit denen die ersten Weltraumflüge und die Mondlandung berechnet und geplant wurden. (Von der A-Bombe ganz zu schweigen.)

Wer es bezahlen kann hat natürlich noch viel mehr Rechnerkapazität.

bei Antwort benachrichtigen
Alpha13 gelöscht_323936 „Danke für die ausführliche Lektion und die Zusammenfassungen zu neuesten Speichertechniken. Immer wieder erstaunlich, was ...“
Optionen
bei Antwort benachrichtigen
Borlander gelöscht_323936 „Danke für die ausführliche Lektion und die Zusammenfassungen zu neuesten Speichertechniken. Immer wieder erstaunlich, was ...“
Optionen
Ich kenne Rechner (nicht Computer) sogar noch ohne Bits.

Hattest Du noch Analogrechner im Einsatz?

Und Speicher war sehr knapp.

Mit handgeflochtenem Kernspeicher war das halt noch ein bisschen aufwändiger und teurer.

Mondlandung

Wobei der Computer den sie dabei hatten auch sehr spannend ist: https://www.youtube.com/watch?v=xx7Lfh5SKUQ

bei Antwort benachrichtigen
gelöscht_323936 Borlander „Hattest Du noch Analogrechner im Einsatz? Mit handgeflochtenem Kernspeicher war das halt noch ein bisschen aufwändiger ...“
Optionen

Das ohne Bits war falsch - ich meinte Bytes.
Die adressierbare Speichereinheit ( von meinem Erstrechner) hieß Wort und hatte 48 bit.

Analogrechner im Einsatz

Analogrechner als Maschine habe ich im Studium mehr oberflächlich kennen gelernt. Und nie alleine damit gearbeitet um Aufgaben zu lösen.
Mit dem Rechenschieber als Analogrechner habe ich da mehr Erfahrung.

Von dem Ferritkern/Hauptspeicher weiß ich gar nix technisches - nur dass da von den Programmieren mit jedem Bit gegeizt werden musste.
Die Maschine kam vom Großen Bruder, so dass vieles geheim und unbekannt war.
Internet für Information gabe es noch nicht.

Das ist Geschichte - und es gibt eine Reihe Fans, die eine Nostalgia-Page unterhalten und darauf sogar einen Emulator online.
1985 wurde dieser Rechner in der Firma stillgelegt. 

bei Antwort benachrichtigen
gelöscht_323936 Nachtrag zu: „Danke für die ausführliche Lektion und die Zusammenfassungen zu neuesten Speichertechniken. Immer wieder erstaunlich, was ...“
Optionen
noch ohne Bits

Korrekur - das ist nicht richtig - bits gab es schon als Bezeichnung der Grund-Speichereinheit - binary digit.
Doch mit Bytes wurde je nach Rechner zuerst nicht überall gerechnet - was heute die völlig normale Einheit bei PCs ist.ist.

bei Antwort benachrichtigen
Borlander gelöscht_323936 „Korrekur - das ist nicht richtig - bits gab es schon als Bezeichnung der Grund-Speichereinheit - binary digit. Doch mit ...“
Optionen
Doch mit Bytes wurde je nach Rechner zuerst nicht überall gerechnet - was heute die völlig normale Einheit bei PCs ist.ist.

Heute muss man bei Byte zumindest nicht mehr nach schauen wie viele Bits gemeint ist. Früher gab es da auch mal Systeme die nicht 8 Bit pro Byte verwendet haben ;-)

bei Antwort benachrichtigen
luttyy Sovebämse „Nahe Zukunft - schnellere Festplatten bei zufälligen Zugriffen?“
Optionen

Weiß nicht, ob es im privaten User-Bereich wirklich wichtig ist, immer mehr auf Geschwindigkeit zu pushen.

Natürlich müssen Hersteller Geld verdienen und es muss neue Hardware auf dem Markt.

Ist aber schon alles da, aber eher eine Geldfrage!

Schaut man sich den digitalen Börsen-Aktienhandel an, wo heute in Millisekunden vom Computer gekauft und verkauft wird, gibt es das schon alles.

Wo Geld keine Rolle spielt, geht eben alles..

Viel wichtiger ist doch nach meinem Verständnis, dass bei den immer größere werdenden Festplatten und eine Datensicherung vorhanden ist!

Was nützt die schnellste 1TB-SSD, wenn schlagartig die Daten im Nirwana sind und nichts mehr da ist?

Und schon hier bei Nickles sind viel User, die sowas gar nicht haben.

Kein Hersteller weist den unbedarften User überhaupt darauf hin, dass er sich vielleicht mal Gedanken über sowas machen sollte.

Na gut, jeder hat halt seine eigenen Prioritäten..

Gruß

Kein Backup? Kein Mitleid!
bei Antwort benachrichtigen
Sovebämse luttyy „Weiß nicht, ob es im privaten User-Bereich wirklich wichtig ist, immer mehr auf Geschwindigkeit zu pushen. Natürlich ...“
Optionen

Ja, stimmt schon. Es ist schon fast alles da. Wenn sich 10 GBit/s im Netzwerkbereich etabliert und alles auf Glasfaser umgestellt ist, gibt es für den Normalanwender kaum mehr Vorteile in immer schnellerer Hardware. Und die Hänger, die ich z. B. im Firefox oder auch allgemein im Windows-Betrieb erlebe, haben fast immer mit Softwareschwächen/-fehlern oder schlechtem Webseiten-Design zu tun (sieht man an plötzlicher hoher und konstanter CPU-Last, obwohl gar nichts zu arbeiten wäre). Hier müsste man viel stärker ansetzen. Software und Webseiten optimieren, entschlacken und Parallelisieren ermöglichen, damit auch die vielen Prozessorkerne heutzutage auch tatsächlich ausgelastet werden können.

bei Antwort benachrichtigen
luttyy Sovebämse „Ja, stimmt schon. Es ist schon fast alles da. Wenn sich 10 GBit/s im Netzwerkbereich etabliert und alles auf Glasfaser ...“
Optionen

Da geht es dir noch gut!

Wenn ich meine müde 4000er Leitung sehe die mir die Telekom zur Verfügung stellt, kommen solche Gedanken über schnellere Hardware  bei mir erst gar nicht auf Zwinkernd

Gruß

Kein Backup? Kein Mitleid!
bei Antwort benachrichtigen