Backup-Medien

codc

codc

/dev/null
Ich habe die Tage in der Firma einen neuen Fileserver aufgesetzt. /home ist auf 2 500GByte Festplatten als Raid 1-Verbund. Bislang haben wir unsere Backups auf 2 Wechselplatten gemacht was ich persönlich für eine suboptimale Lösung halte. Nun stellt sich mir jetzt die Frage wie ich auf dem neuen Server das besser machen kann. Nur auf welches Medium sichert man 500 GByte?

Ich würde um Vorschläge und Ideen bitten. Online geht nicht weil unser upload nur 512 mbit ist und die zu sichernden Daten u.U. recht gross sind da es teilweise Videos sind.
 
Also wenn du da noch was mit Komprimierung machen kannst, dann sollten LTO3 Bänder reichen.
 
Komprimierung kommt für mich in einem Backup nicht in Frage da bei einem "gekippten" Bit im schlimmsten Fall und dafür fährt man ja Backups das ganze Archiv Schrott ist. Oder irre ich mich da?
Unser Bandroboter kann afaik 160 GByte auf die Bänder sichern was erst einmal eine Anfangslösung wäre - allerdings bin ich damit auch nicht wirklich glücklich.
 
Ich hab mir mittlerweile angewöhnt für Backups immer über eine gesonderte Netzwerkkarte einen weiteren Rechner mit ausreichend HD-Platz (braucht ja sonst nicht viel Leistung) an die Server zu hängen. Teilweise nutze ich auch NAS wie die Buffalo TeraStation (Preis liegt bei ca. 500 Euro). 1TB reicht für die meisten Backups.

Frage ist halt nur wie deine Backup-Strategie aussieht. Reichen dir daily Snapshots der letzten 2 Tage oder musst du bei Bedarf auch Daten von vor 1-2 Monaten wiederherstellen können? Machst du deine Backups inkrementell oder jedesmal einen kompletten Snapshot. Müssen die Backups wegschliessbar sein? usw. usf.

Im übrigen sehe ich kein Problem bei Tarballs. Einfach für jede Datei eine MD5-Summe in eine extra Datei packen, den Tarball zur Verifizierung auf dem Backup-Server auspacken und die entpackten Dateien mit den MD5-Summen verifizieren.
 
Die bisherige Backup-Strategie war ein Mal die Woche ein vollständiges Backup zu fahren und alle zwei Tage Mo, Mi, Fr ein inkrementelles Backup auf abwechselnd jeweils eine Wechselplatte die temporär in einem zweiten Extra-Rechner gemountet wurde. Das ganze fand bislang statt durch ein simples Script welches den Fileserver bzw. das /home per NFS gemountet hat und dann mit cp -Ru wenn ich das aus dem Kopf gerade recht zusammen bekomme (ich bin gerade zu Hause und habe keinen Zugriff auf die Kisten) gesichert wurde auf die Wechselplatten.
Das mit den MD5-Summen braucht aber auch wieder die vollen 500 Gbyte an Speicherplatz zum entpacken auf der Platte. Finanziell ist das kein Problem aber was mir irgendwo da dran nicht schmeckt ist die Tatsache dass man immer wieder ein Backup auf magnetische Medien fährt die letztlich die gleiche Technologie benutzen. Für mein Raid 1 habe ich auch zwei Platten gekauft von verschiedenen Herstellern (Seagate und Maxtor) damit ich nicht zwei Platten aus der gleichen Charge erwische und der zeitnahe Ausfall damit wahrscheinlicher wird.
Zur Zeit habe ich von der Systemplatte ein dd-Dump und gerade /home wie gesagt auf einem Raid 1-Verbund auf dem neuen Server und auf dem noch produktiven alten Server den Datenbestand wie auf dem neuen aber mit den Updates der Daten der letzten Woche.

In den letzten Wochen ist es aber immer wieder passiert dass ein (grobmotorischer?) Mitarbeiter bei uns ein Verzeichniss oder einen ganzen Verzeichnis-Baum gelöscht hat aus den Samba-Shares. Wer es war und warum kann ich nicht sagen und das ganze über $user/$passwort und den entsprechenden *NIX-Rechte zu verhindern will mein Chef nicht weil er meint und sich die MA die Rechner teilen und sich auf den Shares nicht neu anmelden und sowieso mit solchen Sachen überfordert sind (hmm Akademiker ... ).
 
MD5-Check informiert dich aber nur darüber, daß ein Archiv Schrott ist und ändert das dann nicht mehr.

Raid-Spiegelung übernimmt auch "manuelle" Fehler 1:1 sofort. Das sichert dich ja gegen Hardwareausfall ab, aber nicht gegen Datenlöschung durch Mitarbeiter.

dd "dumpt" die Festplatte mit ihrer gesamten Struktur, aber interessant sind eigentlich nur die Daten. In einem dd-Dump einen solchen gelöschten Verzeichniszweig zu suchen....

Grundsätzlich sind außerdem *alle* Speichermedien physisch anfällig und fallen irgend wann irgend wie der Vergängnis anheim.

Ich würde also einen sonst nicht anspruchsvollen Rechner mit einer großen Festplatte ins Netz hängen, die Daten mounten und als tar.bz2 sichern, benannt nach Datum / Uhrzeit. Diesem Rechner würde ich wenn möglich eine Spiegelplatte spendieren, um Sektorfehler unkritischer zu machen.
 
Das Raid ist auch nur für den Fall der Fälle eines Hardwareausfalls da und den dd-Dump gibt es um die Kiste in aktueller Konfig wieder möglichst schnell oben zu haben also geringe Downtime. Wie die Kiste gerade da steht brauche ich etwa einen Tag um die von Grund auf neu aufzusetzen obwohl es dokumentiert ist. Aber Disaster-tests mit Raid und USV dauern eben auch eine Weile und da bin ich paranoid.

Zwei Sachen sind es die mir gerade Kopfschmerzen machen. Zum einen Sicherung auf ein Medium was die gleiche Technik benutzt und dass diese unsäglichen gelöschten Verzeichnisse und Verzeichnissbäume. Ich hätte schon die Möglichkeit und das Buget was anzuschaffen aber so wie die Situation gerade ist müsste ich ein komplettes Backup fahren und das über Wochen aufbewahren was speichertechnisch auf Dauer unmöglich ist.
Mir würde es ja auch reichen wenn ich die Ursache für die gelöschten Verzeichnisse ausfindig machen könnte um dem MA mal auf die Finger zu hauen aber so weit ich das sehe bietet Samba da keine Log-Möglichkeit für solche Fileoperationen.
Meine Idee das über einen Domain-Kontroller und entsprechende User-Rechte zu regeln wurde wie schon gesagt in der Luft zerrissen.
 

Ähnliche Themen

Fileserver LVM post mortem

Zurück
Oben