Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.560 Themen, 109.823 Beiträge

Datenintegrität - was tun wenn Bits auf der Festplatte kippen?

Nutellageil / 12 Antworten / Flachansicht Nickles

Hallo,
ich habe gelesen dass Bits auf HDDs einfach kippen können, finde aber zu dem Thema nur wenig Information.
Kennt jemand gute Seiten zu dem Thema?


Bzw:
Ich möchte wissen was man dagegen tu kann. Ich habe viele Fotos und CD Rips (korrekt akurat geript) und bin sehr epmflindlich gegen Knackser und Störungen und auch sonst ein Perfektionist. Die Original CDs gebe ich meisst aus Platzgründen weg da ich sie nicht mehr brauche. Sind Daten einmal digitalisiert so dachte ich einst, sind sie für die ewigkeit konserviert. Mehrfach gesichert und hin und wieder die Datenträger gecheckt mit Oberflächenanalyse und Dateisystemcheck über Windows. Damit sollte eigentlich alles getan sein, dachte ich. Ist aber wohl nicht so, denn alle diese Dinge schützen nicht davor das einfach mal Bits ihren Zustand ändern.

Zur Zeit schreibe ich mit immer bei wichtigen Ordnern aus den Eigenschaften immer die aktuelle Bytegröße mit dazu (352 GB (378.606.788.297 Bytes)) um dann später wieder zu vergleichen ob sich hier was verändert hat. Ist das Unsinn sowas zu machen?

Grundsätzlich:
Werden gekippte Bits nicht bei jedem Kopiervorgang (Datensicherung) bemerkt, da die Daten ja dann mit ihrer Prüfsumme verglichen werden ???

Wenn nicht wüsste ich gerne wieso, und ob es eine Möglichkeit gibt, festzustellen ob Bits gekippt sind.


Hintergrund: Bei der Arbeit die ich mir mache (der PC ersetzt ja heute ein ganzes Wohnzimmerregal mit Fotoalben und CDs) möchte ich nicht dass meine Daten sich einfach verändern. Sie sollen doch bitte so bleiben wie sie einst von ihrer Quelle kopiert wurden. Was also tun?


Danke!

(Ich nutze zurzeit PC mit Win 7, NTFS, und diverse HDDS)

bei Antwort benachrichtigen
Borlander Nutellageil „Datenintegrität - was tun wenn Bits auf der Festplatte kippen?“
Optionen

http://en.wikipedia.org/wiki/Data_rot da hättest Du schon mal einen Einstiegspunkt. Allerdings in Englisch.

Letztendlich gibt es verschiedene Stellen an denen was schief gehen kann. Einzelne fehlerhafte physikalische Bits auf Festplatten würden ggf. durch die Checksummen des Sektors entdeckt. Das passiert dann aber her Plattenintern. Anschließend kann aber auch auf dem Übertragungswerg noch was schief gehen. In den Datenblättern von Festplatten tauchen heute Fehlerraten von 10^-13 bis 10^-15 auf, d.h. wenn 10^13 bzw. 10^15 Bits gelesen wurden kann ein Fehler dabei auftreten, muss aber nicht. Bei sehr großen Speichersystemen ist das aber inzwischen ein nicht mehr zu vernachlässigendes Problem. Professionelle Speichersysteme nutzen auch Lösungen mit Paritätsdaten und Checksummen um die Fehlerrate zu reduzieren.

Zur Zeit schreibe ich mit immer bei wichtigen Ordnern aus den Eigenschaften immer die aktuelle Bytegröße mit dazu (352 GB (378.606.788.297 Bytes)) um dann später wieder zu vergleichen ob sich hier was verändert hat. Ist das Unsinn sowas zu machen?

Das bringt Dir absolut überhaupt nichts, wenn ein einzelnes Bit innerhalb der Daten sich ändert. An der Dateigröße ändert sich dann nämlich nichts mehr.

Was Du machen kannst: Eine Liste mit Checksummen aller Dateien generieren und diese dann regelmäßig zu überprüfen. MD5 würde für Deinen Fall schon vollkommen ausreichen, da bösartige Manipulationen durch Dritte hinreichend sicher ausgeschlossen werden können und die Berechnung deutlich schneller ist als sicherere Hash-Verfahren wie z.B. SHA1.

Grundsätzlich: Werden gekippte Bits nicht bei jedem Kopiervorgang (Datensicherung) bemerkt, da die Daten ja dann mit ihrer Prüfsumme verglichen werden ???

Welche Prüfsummen? Nicht bei jedem Kopiervorgang findet anschließend auch Vergleich von Quelle und Ziel statt. Fehler die bereits im Ziel vorhanden sind lassen sich damit jedoch nicht entdecken.

Was also tun?

Checksummen erzeugen und vergleichen scheint mir hier das sinnvollste.

Moderne Dateisysteme für große Speicherpools wie z.B. ZFS bieten integrierte Checksummen-Funktionen an (http://en.wikipedia.org/wiki/ZFS#ZFS_data_integrity) um dabei Bitfehler direkt im Dateisystem identifizieren zu können. Teilweise wird dann auch noch der Einsatz von ECC-RAM dringend empfohlen um Bitfehler im RAM erkennen zu können. Für ECC-RAM benötigst Du allerdings eine CPU und ein Mainboard die das ganze unterstützen…

Gruß
Borlander

bei Antwort benachrichtigen