Backupstrategie

Jedes Unternehmen sichert seine existentiellen Daten – regelmäßig, vollständig, zuverlässig. Ohne Backup geht gar nichts und die richtige Strategie entscheidet im Ernstfall über Leben oder Tod (wirtschaftlich gesehen). Aber wie sieht es im privaten oder „semiprofessionellen“ Bereich aus?

Ich kriege öfters mal Privat-PCs bei Problemen mit Hard- und Software in die Hände. Eine ersten Fragen, die ich dann immer stelle: „hast Du eine Sicherung von deinen Daten?„. Eigentlich eine rhetorische Frage, denn ich kenne immer die Antwort. Die Reaktionen reichen von einem selbstredenden verlegenen Grinsen bis hin zur selbstbewußten aber dennoch nichtsnutzigen Aussage „das wollte ich immer mal machen“. Dabei ist es selbst mit einfachsten Mitteln (USB-Stick oder -Festplatte) möglich, die Daten, die einem „heilig“ sind, zu sichern.

Nach der Anschaffung des neuen Macs und eines NAS (Synology DS210j mit 2x1TB als RAID 1) war auch ich in der Situation, die Sicherung meiner Daten neu zu planen. Dieser Plan sieht wie folgt aus:

Der erste Weg zur Sicherung war schnell gegangen: Apple liefert mit Time Machine ein zuverlässiges, fast konfigurationsfreies Bordmittel, welches im Hintergrund einfach nur das macht, was man erwartet: Daten sichern – und zwar in meinem Fall auf’s NAS.

Neben dem Mac Mini befindet sich noch das Notebook von meiner Frau im Netzwerk. Auch hier fallen täglich Daten an – nicht viele, aber teilweise „unwiederbringliche“ : meistens Fotos von den Kindern 😉 . Das Notebook-Backup landet auch auf dem NAS und wird täglich um 21:30 gestartet, eine Zeit, in der das Gerät meistens angeschaltet ist. Zum Einsatz kommt hierbei „Data Replicator 3“ von Synology.

Fehlt noch das NAS selber in der Kette. Es ist nicht nur Ziel für Backups, sondern bietet zusätzlich Mac und Notebook einige Freigaben an. Auch diese Daten müssen am Ende doppelt vorhanden sein. Hier kommt eine externe USB-Festplatte ins Spiel, die direkt am NAS hängt. Die Konfigurationsoberfläche „DSM“ von Synology bietet für diesen Fall eine komfortable Möglichkeit, alle Daten zu einem festgelegten Zeitpunkt zu sichern. Genau genommen wird dabei nichts weiter gemacht, als per Cron einen rsync-Job zu starten…

Also alles in trockenen Tüchern? Denkste! Backups sollten nicht nur zeitlich, sondern auch möglichst räumlich von den Originaldaten getrennt sein. Denn was nützt das ganze hier, wenn die komplette Technik mal durch höhere Gewalt (Überspannung, Blitz etc.) mit einem Schlag den Bach runtergehen sollte?
Um auch diesen Fall abzudecken, habe ich mir ein 100GB großes HiDrive von Strato gemietet. Vereinfacht gesagt handelt es sich hierbei um eine virtuelle Festplatte in der Cloud (mein Vorschlag zum „IT-Unwort des Jahres 2010„!), also im Internet. Und so gehen nachts um 04:00 die wichtigsten Daten (davon aber nur die neuen und geänderten Dateien) per rsync über die DSL-Leitung. Aktuell sind dort knappe 30 GB drin, es ist also noch ausreichend Platz nach oben…

Eigentlich sollte ich damit auf der sicheren Seite sein, oder habe ich etwas übersehen???

Inspiriert hat mich im übrigen das folgende Video. Darin erklärt Chase Jarvis (amerikanischer Fotograf) den Workflow seiner Daten von Entstehung bis Archivierung. Sehr interessant und sehenswert, wie ich finde…

5 Kommentare

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.