Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.578 Themen, 110.118 Beiträge

Prüfung alter Datenbestände auf Fehlerfreiheit

mawe2 / 23 Antworten / Baumansicht Nickles

Auf einer älteren Festplatte (HDD) liegt eine größere Datenmenge (100.000 Dateien unterschiedlichster Größen) vor.

Die Platte wurde schon viele Jahre nicht genutzt.

Möglicherweise sind durch die längere Lagerung (ohne regelmäßige Inbetriebnahme!) Fehler entstanden, so dass einzelne (oder auch viele) Dateien nicht mehr nutzbar sind.

Eine AdHoc-Prüfung ist für mich nur stichprobenartig möglich. Wenn ich 20 Dateien geöffnet und kontrolliert habe, lässt das aber noch keine Rückschlüsse auf die Unversehrtheit der restlichen 99.980 Dateien zu.

Wie lässt sich dieser Datenbestand auf einfachem Wege überprüfen?

Wie finde ich heraus, welche der 100.000 Dateien fehlerfrei sind und bei welchen Dateien Fehler vorliegen?

Die Prüfung sollte auf einem Windows-System erfolgen.
(Wenn es dort keine erfolgversprechenden Methoden dafür gibt, wäre aber auch der Einsatz anderer Betriebssysteme für diesen Zweck denkbar.)

Gruß, mawe2

bei Antwort benachrichtigen
andy11 mawe2 „Prüfung alter Datenbestände auf Fehlerfreiheit“
Optionen

Eine Prüfung der Daten wird sich am Dateisystem orientieren.

Welches wird verwendet? A

Alle Menschen sind klug ? die einen vorher, die anderen nachher. Voltaire
bei Antwort benachrichtigen
mawe2 andy11 „Eine Prüfung der Daten wird sich am Dateisystem orientieren. Welches wird verwendet? A“
Optionen
Welches wird verwendet?

Da die Frage allgemeiner Natur ist, sollten die bei Windows gängigen Dateisysteme der letzten 30 Jahre relevant sein.

Also zuerst NTFS aber evtl. auch FAT32 oder andere.

Es sind vorab keine Vorkehrungen für solche Prüfungen getroffen worden.

Es wurden also nicht bereits zu den Zeiten, als die Platten noch regulär im Einsatz waren, irgendwelche Protokolle geschrieben, auf die man jetzt zurückgreifen könnte.

Es sollen ganz "normale" HDDs sein, die irgendwann außer Betrieb genommen und sicher aufbewahrt wurden und die nun viele Jahre später überprüft werden sollen.

bei Antwort benachrichtigen
dirk1962 mawe2 „Da die Frage allgemeiner Natur ist, sollten die bei Windows gängigen Dateisysteme der letzten 30 Jahre relevant sein. ...“
Optionen

Hallo mawe2,

Es sind vorab keine Vorkehrungen für solche Prüfungen getroffen worden. Es wurden also nicht bereits zu den Zeiten, als die Platten noch regulär im Einsatz waren, irgendwelche Protokolle geschrieben, auf die man jetzt zurückgreifen könnte.

Dann bleibt ja wohl m. E. nur die Kontrolle, ob die Dateien als solche noch in Ordnung sind.

Ich würde als erstes die HDD mit chdsk ohne Parametr ausführen (ja, chkdsk finden nicht alle toll).

Dann würde ich mit xcopy /v /s alle Dateien auf eine 2. HD kopieren.

Gruß
Dirk

why can't the world be one great song. (Yorkshire Girl)
bei Antwort benachrichtigen
Wiesner dirk1962 „Hallo mawe2, Dann bleibt ja wohl m. E. nur die Kontrolle, ob die Dateien als solche noch in Ordnung sind. Ich würde als ...“
Optionen

Du könntest dir von der Platte eine Hash Summe erstellen lassen und diese regelmäßig prüfen. Siehe:

https://www.mikrocontroller.net/topic/471497

 

bei Antwort benachrichtigen
mawe2 Wiesner „Du könntest dir von der Platte eine Hash Summe erstellen lassen und diese regelmäßig prüfen. Siehe: ...“
Optionen
Du könntest dir von der Platte eine Hash Summe erstellen lassen und diese regelmäßig prüfen.

Danke.

Aber da das regelmäßig vorher nicht gemacht wird, steht diese Hash Summe eben nicht zur Verfügung.

bei Antwort benachrichtigen
mawe2 dirk1962 „Hallo mawe2, Dann bleibt ja wohl m. E. nur die Kontrolle, ob die Dateien als solche noch in Ordnung sind. Ich würde als ...“
Optionen
Dann bleibt ja wohl m. E. nur die Kontrolle, ob die Dateien als solche noch in Ordnung sind.

Das hatte ich auch so vermutet.

Ich würde als erstes die HDD mit chdsk ohne Parametr ausführen (ja, chkdsk finden nicht alle toll). Dann würde ich mit xcopy /v /s alle Dateien auf eine 2. HD kopieren.

Die Idee, alles auf eine andere Platte zu kopieren, ist auch nicht schlecht.

Ob ein problemloses Kopieren aber ein Beweis dafür ist, dass alle Dateien noch fehlerfrei sind, weiß ich auch nicht wirklich.

Danke für Deine Antwort!

bei Antwort benachrichtigen
Borlander mawe2 „Prüfung alter Datenbestände auf Fehlerfreiheit“
Optionen
Wie finde ich heraus, welche der 100.000 Dateien fehlerfrei sind und bei welchen Dateien Fehler vorliegen?
Es sind vorab keine Vorkehrungen für solche Prüfungen getroffen worden. Es wurden also nicht bereits zu den Zeiten, als die Platten noch regulär im Einsatz waren, irgendwelche Protokolle geschrieben, auf die man jetzt zurückgreifen könnte.

Kannst Du in vielen Fällen gar nicht herausfinden ohne eine manuelle Prüfung: Überall dort wo beliebige Binärdaten enthalten sein können.

Was man automatisiert prüfen kann ist z.B. die Fehlerfreiheit von Datenstrukturen, aber auch das bietet keine Sicherheit, falls die vorgefundenen Werte auch vorkommen dürfen. Da besteht aber zumindest die Chance, dass unerlaubte Daten auftreten können.

Betrachtest Du z.B. ein Bitmap-Bild, so kannst Du innerhalb der Bilddaten nicht automatisiert entscheiden, ob das Pixel die Farbe wirklich so haben soll, oder ein Bit gekippt ist. Ein Fehler im Dateiheader ist u.U. auffällig, z.B. Falls nicht mehr zum Dateityp passend, oder falls die Größenangaben nicht konsistent zur Dateigröße sind.

Bei MSO-XML-Formaten könnte man an der Stelle abgleichen ob die Hashes der gezippten Inhalte noch passen. Hat man solche Anhaltspunkt nicht, schaut es nicht so gut aus.

Ansonsten sollten Festplatten selbst auch eine (einfache) Prüfsumme je Hardware-Sektor mitführen um mögliche Fehler entdecken zu können.

Moderne Dateisysteme führen auch selbst gerne noch mal Checksummen für jede Datei mit, somit ist eine Konsistenzprüfung (Scrubbing) auch unabhängig von der Hardware möglich. Das greift aber natürlich auch nur, wenn die Daten nicht vorher schon fehlerhaft waren (mit ECC-Speicher kann man diese Fehlerquelle reduzieren). Separat Checksummen führen hat den Vorteil, dass Du auch auf anderen Medien erneut prüfen kannst.

Fazit: Ist nicht einfach das Thema…

bei Antwort benachrichtigen
mawe2 Borlander „Kannst Du in vielen Fällen gar nicht herausfinden ohne eine manuelle Prüfung: Überall dort wo beliebige Binärdaten ...“
Optionen

Vielen Dank für die ausführliche Antwort!

Fazit: Ist nicht einfach das Thema…

Das dachte ich mir bereits.

Insofern sollte man solche Aussagen wie "habe nach n Jahren eine alte Festplatte wieder in Betrieb genommen > alle Dateien sind noch verfügbar" eher mit Vorsciht genießen, weil sich wohl kaum jemand die Mühe macht, wirklich alle Dateien individuell zu überprüfen.

bei Antwort benachrichtigen
winnigorny1 Borlander „Kannst Du in vielen Fällen gar nicht herausfinden ohne eine manuelle Prüfung: Überall dort wo beliebige Binärdaten ...“
Optionen
Das greift aber natürlich auch nur, wenn die Daten nicht vorher schon fehlerhaft waren (mit ECC-Speicher kann man diese Fehlerquelle reduzieren).

Dazu habe ich in einem anderen Thread auch schon was geschrieben - aber mawe hat mir gegenüber behauptet, dass der Speicher, da flüchtig, überhaupt keinen Einfluß habe.

Schön, dass ich meine Meinung (und damit meine hardwareseitige Vorsorge) nun bestätigt sehe. Danke dafür.

Gruss aus dem schoenen Hamburg, Winni
bei Antwort benachrichtigen
mawe2 winnigorny1 „Dazu habe ich in einem anderen Thread auch schon was geschrieben - aber mawe hat mir gegenüber behauptet, dass der ...“
Optionen
Schön, dass ich meine Meinung (und damit meine hardwareseitige Vorsorge) nun bestätigt sehe.

Gar nichts wurde bestätigt!

Borlander bezog sich darauf, dass ECC-Speicher helfen kann, VORHER (also vor der langjährigen Lagerung) Fehler zu vermeiden.

Das ist ja auch alles richtig, hat aber nichts mit den Fehlern zu tun, die WÄHREND der langjährigen Lagerung enstehen.

Wie soll ein RAM, der in irgendeinem Computer eingebaut ist, Einfluss darauf nehmen, dass eine Festplatte, die in keinem Computer eingebaut ist, Daten behält oder Daten verliert?

Auch wenn hier von Borlander ECC erwähnt wurde, ist das noch lange nicht relevant für die Frage, ob (klassische) HDDs im Laufe einer längeren Lagerzeit (ohne Nutzung) Daten verlieren oder nicht.

bei Antwort benachrichtigen
winnigorny1 mawe2 „Gar nichts wurde bestätigt! Borlander bezog sich darauf, dass ECC-Speicher helfen kann, VORHER also vor der langjährigen ...“
Optionen
Auch wenn hier von Borlander ECC erwähnt wurde, ist das noch lange nicht relevant für die Frage, ob (klassische) HDDs im Laufe einer längeren Lagerzeit (ohne Nutzung) Daten verlieren oder nicht.

OK - verstanden.... Aber immerhin werden beim Speichern die Fehlermöglichkeiten reduziert. Und ich lasse meine HDDs nicht jahrelang ungenutzt rumliegen, sondern schließe sie turnusmäßig an.

Allein schon, damit die Schmierung der Lager nicht verharzen kann. Immerhin haben HDDs ja auch noch mögliche Probleme mit der Mechanik, wenn sie jahrelang nicht betrieben werden.....

Aber insgesamt sieht es wohl schlecht damit aus, Fehler  nach Jahren ausmachen zu können.

Gruss aus dem schoenen Hamburg, Winni
bei Antwort benachrichtigen
mawe2 winnigorny1 „OK - verstanden.... Aber immerhin werden beim Speichern die Fehlermöglichkeiten reduziert. Und ich lasse meine HDDs nicht ...“
Optionen
Aber immerhin werden beim Speichern die Fehlermöglichkeiten reduziert.

Ja.

Und ich lasse meine HDDs nicht jahrelang ungenutzt rumliegen, sondern schließe sie turnusmäßig an.

Aber hier im Thread ging es eben genau um solche um Platten, die lange ungenutzt "rumlagen".

Ich weiß auch, dass man das eher vermeiden sollte.

Aber genau deswegen ist doch die Frage interessant, ob man nach vielen Jahren eine Fehlerfreiheit attestieren kann oder eben nicht.

Allein schon, damit die Schmierung der Lager nicht verharzen kann.

Das mit dem "Verharzen" ist ein uraltes Ammenmärchen, das wahrscheinlich bei dem hier betrachteten Zeitraum (max. 30 Jahre) gar nicht mehr relevant ist.

Glaubst Du ernsthaft, dass in den letzten Jahren bei Festplatten Schmierstoffe verwendet wurden, die "verharzen" können?

Das wäre jetzt allerdings ein anderes (ebenfalls interessantes) Thema, hat aber nichts mit dem Verlust gespeicherter Daten zu tun.

Im Zweifel könnte eine Datenrettungsfirma auch eine "verharzte" Platte wieder lauffähig machen. Wenn aber auf der Platte nur noch fehlerhafte Daten sind, dann nützt das auch nichts mehr...

Bei Disketten kommt es vor, dass die Oberfläche der Magnetscheibe mit der Teflon-Schutzschicht verklebt, so dass sich Diskette nicht mehr benutzen lässt. Das habe ich bei uralten Floppys schon erlebt (> 40 Jahre). Aber auch das ist schon wieder ein anderes Thema...

bei Antwort benachrichtigen
Borlander mawe2 „Ja. Aber hier im Thread ging es eben genau um solche um Platten, die lange ungenutzt rumlagen . Ich weiß auch, dass man ...“
Optionen
Glaubst Du ernsthaft, dass in den letzten Jahren bei Festplatten Schmierstoffe verwendet wurden, die "verharzen" können?

Wenn die (in Gesamtbetrachtung) billiger sind und innerhalb der Spezifikation zzgl. Toleranz zuverlässig funktionieren, dann bestimmt.

wahrscheinlich bei dem hier betrachteten Zeitraum (max. 30 Jahre) gar nicht mehr relevant ist.

So lange man nicht explizit Versuche unternimmt, um die Effekte unter Einsatz von künstlicher/beschleunigter Alterung zu simulieren, kann man da wenig Aussagen treffen. Festplatten sind ja tendenziell erst mal nicht als Medium zur Langzeitarchivierung spezifiziert. Teilweise gibt es auch Vorgaben von Herstellern wie lange eine Platte unbenutzt liegen bleiben darf. Auch findest Du Modelle bei denen eine maximale jährliche Schreibleistung spezifiziert ist. Solche Vorgaben könnten auch aus mechanischen Spezifikationen abgeleitet sein um den Verschleiß auf ein erwartbares Maß zu begrenzen.

bei Antwort benachrichtigen
gelöscht_189916 mawe2 „Prüfung alter Datenbestände auf Fehlerfreiheit“
Optionen

Imho prüft jede Platte die Daten über CRC und darüber wird auch ein Dateisystemcheck angeworfen, wenn etwas nicht stimmt. Insofern ist ein gewisser Selbstschutz bereits eingebaut. Solange da also auch bei eienr lange gelagerten Platte nichts kommt, kann man von sauberen Daten ausgehen.

Will man ganz sicher gehen, bleibt m.E. bei so etwas nur das Prinzip Prüfsumme, um auch dem "gekippten Bit" auf die Spur zu kommen.

bei Antwort benachrichtigen
mawe2 gelöscht_189916 „Imho prüft jede Platte die Daten über CRC und darüber wird auch ein Dateisystemcheck angeworfen, wenn etwas nicht ...“
Optionen

Ich bin immer davon ausgegangen, dass CRC bei der Übertragung von Daten wirksam wird.

Wenn die Platte 20 Jahre im Schrank liegt und dann wieder in Betrieb genommen wird, würde also CRC automatisch Alarm schlagen, wenn etwas nicht stimmt? Das wäre ja eigentlich ausreichend.

bei Antwort benachrichtigen
gelöscht_189916 mawe2 „Ich bin immer davon ausgegangen, dass CRC bei der Übertragung von Daten wirksam wird. Wenn die Platte 20 Jahre im Schrank ...“
Optionen
Ich bin immer davon ausgegangen, dass CRC bei der Übertragung von Daten wirksam wird.


Auch beim Speichern selber.

Typische Anwendungen des Cyclic Redundancy Checks sind die Fehlerprüfung übertragener Datenpakete in Netzwerken oder die Prüfung gespeicherter Datenblöcke auf Speichergeräten.


Das Verfahren wird ja auch bei DVD usw. angewendet. Da Lesen eines Datenträgers ja auch ein Übertragen ist, wird sich eine defekte Datei ergo auch mit einem Fehler melden. Insofern kann bei einer Datei davon ausgegangen werden, dass sie nicht defekt ist, wenn es dabei zu keinem CRC-Fehler kommt.

Über den fehlerfreien Zustand eines gesamten Datenträgers sagt das natürlich in Summe nichts aus, dass liesse sich m.E. nur per Prüfsumme des ganzen Datenträgers feststellen.

bei Antwort benachrichtigen
mawe2 gelöscht_189916 „Auch beim Speichern selber. Das Verfahren wird ja auch bei DVD usw. angewendet. Da Lesen eines Datenträgers ja auch ein ...“
Optionen
Über den fehlerfreien Zustand eines gesamten Datenträgers sagt das natürlich in Summe nichts aus

Aber genau dazu wollte ich ja eine Aussage treffen...

Es bleibt schwierig.

bei Antwort benachrichtigen
Borlander gelöscht_189916 „Imho prüft jede Platte die Daten über CRC und darüber wird auch ein Dateisystemcheck angeworfen, wenn etwas nicht ...“
Optionen
Imho prüft jede Platte die Daten über CRC […] Will man ganz sicher gehen, bleibt m.E. bei so etwas nur das Prinzip Prüfsumme

CRC ist doch bereist eine Prüfsumme?!

Solange da also auch bei eienr lange gelagerten Platte nichts kommt, kann man von sauberen Daten ausgehen.

Jein. Eine (vergleichsweise kurze) Prüfsumme bietet keine absolute Sicherheit über Fehlerfreiheit, sondern steigert "nur" sehr deutlich die Chance einen zufälligen (insbesondere nicht böswillig eingebrachten) Fehler zu erkennen. Es sind Konstellationen denkbar bei auch mit Fehlern die korrekte Prüfsumme geliefert wird. Letztendlich muss man dann genau schauen welche Garantieren ein Prüfverfahren liefern kann (z.B. Erkennung eines Einzel-Bit-Fehlers innerhalb der zu prüfenden Daten).

Im Datenblatt von Festplatten kann man auch eine Angabe zur Häufigkeit von nicht korrigierbaren Fehlern finden. Die liegt AFAIR je nach Nutzungsszenario im Bereich 10^14 bis 10^16. Ein TB hat 10^12 Byte = 0,8*10^13 Bit. Bei einem Datenträger ab 12,5TB würdest Du somit an der Untergrenze kratzen. Mit einer 18TB Platte landest Du bei 7 mal komplett auslesen schon bei 10^15. Also gar nicht mal mehr so viel. Real werden die Fehler wahrscheinlich noch seltener auftreten, aber eine Garantie hast Du da halt nicht…

bei Antwort benachrichtigen
gelöscht_189916 Borlander „CRC ist doch bereist eine Prüfsumme?! Jein. Eine vergleichsweise kurze Prüfsumme bietet keine absolute Sicherheit über ...“
Optionen
CRC ist doch bereist eine Prüfsumme?!


Die arbeitet doch m.E. aber dateiweise?

Für die Integrität der gesamten Platte ist das also nur bedingt aussagefähig. CRC-Fehler wären jedoch ein Indiz für Plattenprobleme und umgekehrt für eine intakte Platte, wenn es keine gibt.

Letzten Endes sind wie die nicht korrigierbaren Sektoren auch solche Dateifehler eine Frage der Wahrscheinlichkeiten. Dabei geht es ja nicht darum, ob sie auftreten, sondern wann und wie oft.

Frage 2 wäre dann, ob diese z.B. aus der Prüfsumme heraus korrigiert werden können oder nicht (mehr) und damit bei jedem weiteren Zugriff weiter beschädigt werden oder eben nach einer Korrektur zwar verändert, aber dann wieder "unbeschädigt" gespeichert sind, weil Datei plus Prüfsumme integer sind und ein neuerliches Abgleichen und ggf. Wiederherstellen zulassen.

Sonst müsste man für absolute Datensicherheit ständig mehrere Datensätze identisch vorhalten und diese permanent prüfen, um im Schadensfall diesen aus einem Double wieder herstellen zu können.

Im Prinzip ist das wie mit einem Bild, welches bei einem fehlenden Pixel noch als solches erkannt wird und man zumindest mit hoher Wahrscheinlichkeit auf die Farbe/den Zustand des fehlenden Pixels rückschließen kann, welches aber bei zu vielen fehlenden Pixeln seinen "Informationsgehalt" verliert. Auch ein Buch/Text kann bei einzelnen fehlenden Buchstaben "logisch" wieder rekapituliert werden, bei fehlenden Seiten oder Worten aber ab einem gewissen Punkt ohne einen identischen zweiten Satz nicht mehr.

Absolute Sicherheit kann es ergo ab einem Datenbestand der Größe X verbunden mit dem Faktor Zeit gar nicht mehr geben oder man hat mindestens 2x gesichert und gliche ständig ab. Und selbst da kann ein Fehler eines Teils die korrekte Datei verfälschen. Letzten Endes weiß man dann selbst bei inkorrekter Prüfsumme wieder nur, dass etwas falsch ist, aber erst einmal nicht wo oder was. Darauf kann dann über CRC z.B. die einzelne Datei ausfindig gemacht werden, wobei eben auch das nur bedingt Sicherheit bringt.

Das CRC-Verfahren ist nur für die Erkennung von zufälligen Fehlern ausgelegt. Es ist nicht geeignet, die Integrität der Daten zu bestätigen. Das heißt, es ist verhältnismäßig leicht, durch beabsichtigte Modifikation einen Datenstrom zu erzeugen, der den gleichen CRC-Wert wie eine gegebene Nachricht hat. Wenn eine solche Sicherheit gefordert ist, müssen kryptografische Hash-Funktionen wie beispielsweise SHA oder Signatur-Funktionen wie beispielsweise RSA zum Einsatz kommen.


Für den heimischen Anwendungsfall würde ich daher CRC mit gegebener Reparaturfunktion und ggf. noch eine Prüfsumme des gesamten Datenträgers als ausreichend ansehen. Die Binse des gelegentlichen Umkopierens von gesicherten Datenbeständen kommt ja nicht von ungefähr.

Es bleibt schwierig.


Auf jeden Fall;-)

bei Antwort benachrichtigen
Borlander gelöscht_189916 „Die arbeitet doch m.E. aber dateiweise? Für die Integrität der gesamten Platte ist das also nur bedingt aussagefähig. ...“
Optionen
Die arbeitet doch m.E. aber dateiweise?

Checksummen können auf ganz unterschiedlichen Ebenen zum Einsatz kommen:

  • Je Speicherwort im Arbeitsspeicher (Beim Einsatz von ECC)
  • An einzelnen Werten/Datenfeldern (z.B. Prüfziffern in IBAN)
  • An einzelnen Datensätzen
  • Für einzelne Dateien in Archiven
  • Im Dateisystem je Cluster (Beim Einsatz von entsprechenden Dateisystemen)
  • Im Dateisystem je Datei (Beim Einsatz von entsprechenden Dateisystemen)
  • Auf Datenträger je Sektor
[…] mehrere Datensätze identisch vorhalten und diese permanent prüfen, um im Schadensfall diesen aus einem Double wieder herstellen zu können.

Ein regelmäßiges Prüfen ist bei modernen Speichersystemen gar nicht so exotisch. Bei RAID-Systemen gab es das ja auch früher schon, wobei Du bei zwei Kopien und ohne Checksumme dann keine Möglichkeit hast festzustellen welche Version den Fehler enthält. Z.B. bei BTRFS als Dateisystem kannst Du die Inhalte mit brfs scrub prüfen (und bei Vorliegen einer Kopie auch reparieren) lassen. Das kann im Hintergrund laufen ohne, dass Du davon bei der Nutzung viel merkst.

bei Antwort benachrichtigen
mawe2 Nachtrag zu: „Prüfung alter Datenbestände auf Fehlerfreiheit“
Optionen

Danke nochmal für alle Beiträge, die zum o.g. Thema gegeben wurden.

Zusammenfassend nehme ich für mich mit, dass es keine wirklich praktikable Möglichkeit gibt, die Fehlerfreiheit des gesamten Datenträgers nach längerer Lagerzeit festzustellen, wenn vorher keine Prüfsumme für den gesamten Datenträger erzeugt wurde.

Gruß, mawe2

bei Antwort benachrichtigen
Borlander mawe2 „Danke nochmal für alle Beiträge, die zum o.g. Thema gegeben wurden. Zusammenfassend nehme ich für mich mit, dass es ...“
Optionen
dass es keine wirklich praktikable Möglichkeit gibt, die Fehlerfreiheit des gesamten Datenträgers nach längerer Lagerzeit festzustellen

Schaut bei kürzerer Lagerzeit übrigens auch nicht sehr anders aus. Darüber macht man sich im Alltag nur wenig Gedanken, weil man dort keine Fehler erwartet.

Was wir bislang nicht ausführlich betrachtet haben ist welche Alterungsprozesse überhaupt einen Einfluss auf die gespeicherten Daten einer (magnetischen) Festplatte haben.

bei Antwort benachrichtigen
mawe2 Borlander „Schaut bei kürzerer Lagerzeit übrigens auch nicht sehr anders aus. Darüber macht man sich im Alltag nur wenig Gedanken, ...“
Optionen
Schaut bei kürzerer Lagerzeit übrigens auch nicht sehr anders aus.

Das stimmt natürlich auch.

Aber auch ohne die konkreten Einflüsse wirklich genauer zu betrachten, dürfte doch die Wahrscheinlichkeit von Datenverlusten mit zunehmender Nicht-Nutzung (bzw. mit zunehmendem Alter) steigen.

Und jüngere Dateien werden tendeziell auch öfter genutzt, so dass Verluste eher auffallen würden.

bei Antwort benachrichtigen