Korrupte Dateien vermeiden - wie? Meine Idee okay?

Hallo,

ich nutze Cryptomator seit einigen Jahren. In unzähligen Containern habe ich insgesamt wohl Millionen Dateien, die ich alle kaum prüfen kann. Einige Male im Jahr öffne ich Ordner, in denen mir dann plötzlich korrupte Dateien auffallen. Diese äußern sich dadurch, dass Fotos in keinem Bildbetrachtungsprogramm mehr angezeigt werden können oder Windows Fehlermeldungen ausspuckt. Ich habe Jahre lang diese Cryptomator-Container auch immer auf andere Festplatten gespiegelt. Das heißt, auch korrupte Dateien wurden mitkopiert. Ich möchte korrupte Dateien in Zukunft vermeiden. Fraglich ist natürlich, wie es sein kann, dass diese existieren, denn beim Kopieren bzw. Einfügen von Dateien in Containern fällt nicht auf, dass etwas nicht stimmen könnte.

Dateien, die ich in Cryptomator-Containern habe, habe ich in der Regel sonst nicht mehr im unverschlüsselten “Original-Format”.

Wichtigste Frage: Wie kann man korrupte Dateien vermeiden? Habt ihr Ideen, wie diese überhaupt mit Cryptomator entstehen und wie man sie verhindern kann?

Ist meine unten stehende Idee eventuell eine Möglichkeit, dieses Problem in Griff zu bekommen?

Meine Idee:
Alle meine Festplatten sind ohnehin per VeraCrypt vollverschlüsselt. Aber ich nutze Cryptomator, um manche Dateien in der Cloud verschlüsselt zu haben und diese auf verschiedenen Rechnern / Festplatten zu synchronisieren. Da die Korruption von Dateien immer nur dann entsteht, wenn Dateien in Cryptomator landen, dachte ich daran, “Original-Dateien” NICHT in Cryptomator abzulegen, sondern nur Kopien davon. Die Original-Dateien sollen auf der mit VeraCrypt verschlüsselten Festplatte A abgelegt sein. Diese Dateien sollen mit einer Sync-Software mit Dateien in einem Cryptomator-Container auf Festplatte B verglichen und entsprechend gespiegelt werden. So habe ich die “Original-Daten” auf A - ohne Cryptomator - und sie bleiben auch da, aber Kopien davon landen auf Festplatte B in einem Cryptomator-Container. Sollte irgendwann einmal eine Datei in Cryptomator korrupt sein, würde diese ja eigentlich überschrieben werden, da das Sync-Tool z.B. täglich ausgeführt wird. Und diese Cryptomator-Container würden wiederum mit Cloud-Diensten synchronisiert werden. Alltäglich würde ich nur auf Festplatte A arbeiten und B wäre nur für Backup in die Cloud zuständig.

Was haltet ihr davon? Oder wie macht ihr es?

Hi.
Beim Kopieren in einen Vault sollten keine korrupten Daten entstehen. Wenn doch, und wenn sich das reproduzieren lässt, würde ein Log-File weiter helfen die Ursachen zu finden.
Grundsätzlich hilft als Absicherung gegen Datenbeschädigungen (Datensicherheit) nur ein Backup der Daten (der Daten wohlgemerkt, nicht des Tresors!). Dein Setup wie du es unter “Idee” beschreibst entspricht meinem mit dem ich seit Jahren sehr gut arbeite. Aber bitte nicht vergessen dennoch ein Backup zu machen das nicht in einem Tresor liegt, und im Bestfall eine Historisierung hat. Beispiel: Ist eine Datei auf “A” defekt (aus welchen Gründen auch immer), würde mit Deinem Setup dieser Defekt irgendwann in den Tresor auf B übernommen. Gegen so ein Szenario hilft nur, wenn Du ein Backup hast, welches historische Dateiversionen beinhaltet. Damit Du, wenn Du den Defekt bemerkst, eine ältere Version der Datei ohne Defekt wieder herstellen kannst. Gleiches für “versehentlich gelöscht” oder jede andere Form von Datenbeschädigung und Datenverlust.
Oder anders: Crpytomator = Datenschutz; Backup = Datensicherheit

Hi,
das klingt eher nach schleichender Datenkorruption. Habe ich leider auch schon erlebt, allerdings bei Dateien die unverschlüsselt gespeichert sind. Das Problem liegt ja auch nicht bei der Verschlüsselung, sondern darin, dass die meisten Dateisysteme die Integrität nicht prüfen. Wenn du keinen ECC RAM hast, werden auch dort bitflips nicht erkannt oder gar korrigiert.

Wenn du so viele Container und Dateien hast, wäre zu überlegen auf ECC Arbeitsspeicher und ein fehlerkorrigierendes Dateisystem wie z.B. ZFS zu nutzen. Eine Versionierung (z.B. mit Nextcloud) ist auch kein Fehler, das schützt dich auch gegen z.B. versehentliches Überschreiben). Wobei regelmäßige Backups trotzdem gemacht werden sollten, ich mache das mit Duplicati (ebenfalls OS).

Auf Fehlerkorrektur zu setzen bringt natürlich wieder Nachteile an anderer Stelle. Du brauchst z.B. eine CPU die ECC RAM unterstützt, ZFS ist recht RAM lastig etc. Aber das ist ein reales Problem. Und je mehr Dateien du hast, um so größer die Wahrscheinlichkeit, davon betroffen zu sein. Millionen von Dateien ist eine Menge.

Ich mache das jetzt seit ein paar Tagen so wie ich es oben beschrieben habe. Allerdings fehlt mir noch eine Dateiversionierung. Ich nutze FreeFileSync zum Kopieren von A nach B. B wird automatisch mit der Cloud synchronisiert. Ich musste allerdings viele Dateien doch wieder löschen, weil der erste Backup von ca. 600 GB fast vier Tage gedauert hat - aufgrund vieler kleiner Dateien (Text und git). Diese Dateien sind sowieso bei GitHub und co.

FreeFileSync bietet auch Versionierung an, soweit ich weiß. Muss ich mal ausprobieren. Habt ihr sonst andere Ideen / Tools?

Datenkorruption habe ich bisher nur in Cryptomator erlebt. Nur mit VeraCrypt verschlüsselte Dateien sind bisher nie korrupt gewesen. Irgendwas muss beim Kopieren, Synchronisieren oder Cryptomator-Versionsupgrade schiefgegangen sein. Ich erinnere mich an ein Update, bei dem der Vault irgendwie migriert wurde. Offensichtlich fehlerfrei, aber meine Vermutung liegt eben da. Es gab damals auch viele Tickets dazu.

Duplicati habe ich einige Wochen genutzt, musste es dann aber doch wieder aufgeben = ständige neue Fehlermeldungen oder ewig lang dauernde Backups.

Ich denke fast alle Backup Tools sollten das können. Ich nutze das hier um bei einem Backup die vorherigen Versionen zu erhalten:

Die Windows 10 hauseigene Sicherung kann das übrigens auch.
Stichwort “Dateiversionsverlauf”

Danke sehr. Ich schaue mir alles mal an.