Verschlüsseltes Backup per rsync

SiS

SiS

Routinier
Huhu,

so nach längerer Abwesenheit melde ich mich mal wieder. Es geht um folgendes:
Ein paar wichtige Daten würde ich gerne regelmäßig außerhalb meines Hauses sichern (man weiß ja nie). Schätzungsweise ginge es so um ca. 80gb Daten (Fotoarchiv, Dokumente, etc.). Ins Auge gefasst hätte ich da HiDrive von Strato. Dort könnte ich die Daten per rsync über ssh lagern.

So nun zum Problem:
Ich hätte ein besseres Gefühl dabei wenn die Daten dort verschlüsselt liegen würden. Die einzigen Ansätze die mir einfallen würden wären:

1. Die ganzen Daten in ein Archiv stecken -> GnuPG drüber laufen lassen -> Upload. Das Problem wäre allerdings das ich so keinen "inkrementellen Upload" habe. D.h. es müsste jedesmal das komplette Archiv übertragen werden. Ich habe zwar bis zu 150kb/s Upload, aber das ganze würde bei den genannten 80GB dann doch an die 6-7 Tage dauern.

2. Alle Dateien einzeln verschlüsseln -> Per rsync nach oben. Problem: Die Umsetzung wäre doch relativ kompliziert und ich sehe da schon ein paar Probleme auf mich zukommen.

Habt ihr bessere Ideen oder Vorschläge wie die oben genannten Probleme zu umgehen wären? Wenn nicht müsste ich das mit der Verschlüsselung vermutlich sein lassen und das gefällt mir nicht so :D

Gruß,
Chris.
 
Schau dir mal duplicity an, die haben wohl diese Probleme schonmal gelöst
 
Theoretisch könnte es mit einem Truecrypt Container gehen, hab es bisher aber nur im lokalen Netzwerk getestet.

LG

Duester
 
Wenn Du root-Rechte hast, kannst Du Dir ja auch mit losetup und cryptsetup eine verschluesselte Datei einrichten, die Du bei Bedarf vor dem Backup einhaengst und dann wie eine Partition behandeln kannst.
 
Also so auf den ersten Blick sieht duplicity nicht schlecht aus.
Das mit dem gemounteten Container wär aber auch ne Idee. Cryptsetup benutz ich aufm Homeserver auch, wär für mich also das einfachste. Zugriff sollte denk ich gehen. Hab jetzt nen Testaccount erstellt und hätte auch Zugriff über SFTP bzw. SCP. Sollte also möglich sein. Werds morgen mal ausprobieren...nur den Container in voller Größe von 100GB zu erstellen dürfte ne Weile dauern bei vollen 100GB :D

Edit: Ist beim automatisierten Backup natürlich nicht so elegant, da ich den Schlüssel irgendwo ablegen müsste oder jedesmal eingeben. Das wär bei GnuPG eleganter. Aber nagut da überleg ich mir was. So paranoid will ich dann auch nicht sein :D
 
Zuletzt bearbeitet:
Der Vorteil von Cryptsetup wäre, dass die Verschlüsselung transparent bleibt, solange die Partition eingehängt ist. GPG-Verschlüsselungen lassen die Vorteile von rsync ja nicht gerade so richtig zur Geltung kommen.
 
Zuletzt bearbeitet:
Edit: Ist beim automatisierten Backup natürlich nicht so elegant, da ich den Schlüssel irgendwo ablegen müsste oder jedesmal eingeben. Das wär bei GnuPG eleganter. Aber nagut da überleg ich mir was. So paranoid will ich dann auch nicht sein :D

Du kannst Dir ja ein Skript schreiben, dass die Datei mit dem Schluessel per scp vom Rechner Deines Vertrauens auf die Platte kopiert, dann dort per die verschluesselte Datei einhaengt und danach den Schluessel wieder loescht (oder ueberschreibt und loescht). Ist sicher nicht 100%ig sicher, aber wenn Du nicht so paranoid bist ( ;-) ) zu glauben, dass die Leute bei Strato nichts anderes zu tun haben als auf die Sekunde zu lauern, waherend der die Schluesseldatei auf deren Platte liegt, muesste das doch eine ganz gute Loesung sein.
 
Vielleicht habe ich jetzt etwas verpasst, aber erfordern eure Lösungen nicht *alle* das der komplette Container rüberkopiert wird? Also kann es damit gar keine inkrementellen Backups geben?
 
Morgen,

ja du hast etwas verpasst.

Der Vorteil über Cryptsetup wäre, dass die Verschlüsselung transparent bleibt, solange die Partition eingehängt ist.

Damit hab ich ein Filesystem in einem Crypt-Container auf das ich mit den üblichen Tools arbeiten kann.

mfg
HeadCrash
 
Vielleicht habe ich jetzt etwas verpasst, aber erfordern eure Lösungen nicht *alle* das der komplette Container rüberkopiert wird? Also kann es damit gar keine inkrementellen Backups geben?

Also ich glaube nicht das der gesamte Container kopiert wird da sonst würde das öffnen bei 40 GB übers Netzwerk nicht in ein paar Sekunden gehen ;-)
 
Vielleicht habe ich jetzt etwas verpasst, aber erfordern eure Lösungen nicht *alle* das der komplette Container rüberkopiert wird? Also kann es damit gar keine inkrementellen Backups geben?

Ich meinte, dass der Container auf dem entfernten Dateisystem erstellt wird und dort die Backups draufgespielt werden, nachdem der Container auf dem entfernten Dateisystem eingehaengt wurde.
 
aber dafür braucht man doch ssh mit root-Rechten..? Ich dachte wir reden nur über einen entfernten Filestorage.
 
Also ich hab die Containermethode mal ausprobiert. Soweit läufts schon ganz brauchbar. Natürlich nicht ganz so effizient wie mit rsync alleine, aber mein Vorhaben müsste damit umsetzbar sein.
Jetzt muss ich nur noch gucken wie ich da am schnellsten einen 100GB Container erstelle.

Hier nochmal mein aktuelles Vorgehen:

1. Onlinestorage wird per sshfs lokal bei mir gemountet.
2. Container wird auf dem Storage erstellt und mit cryptsetup verschlüsselt.
3. Der Container wird bei mir über ein loop-device zur Verfügung gestellt und per cryptsetup entschlüsselt und unter /dev/mapper/... verfügbar gemacht.
4. Das Dateisystem im Container kann bei mir nun lokal gemountet werden.
5. Der Rest geschieht per rsync.

Strato bietet übrigens rechtviele Möglichkeiten um Zugriff auf den Storage zu bekommen: sftp, ftp, WebDav, rsync, SMB üder OpenVPN. Lässt sich aber alles einzeln auf Wunsch sperren. Für den Preis find ich das eigentlich ganz ok.
 

Ähnliche Themen

USB Geräte per Bash Script resetten (Gerät hängt sich öfter mal auf)

Nettop für debian Home-Server??

ubuntu und vista pre boot verschlüsseln

Server's Power

jede menge anfängerfragen

Zurück
Oben