[Debian] Backups per .tar.gz

seim

seim

seim oder nicht seim?
Hi,
also ich wollte mir ein Bachup von meinem System machen, am besten per Knoppix boot und dann:

Code:
tar cfvz test.tar.gz tarfiledir

aber:
hierbei wird immer die gzip stufe 1 ausgewählt.. wie kann ich die stufe selber auswählen?

EDIT:

Hab noch ne viel bessere Frage:
Wie splite ich das Archiv, sodass es trotzdem noch normal zu entpacken ist (mit Ark, etc. also so, dass ich mir den Inhalt ansehen kann ohne das vorher zurück zu splitten)
 
Zuletzt bearbeitet:
Hi,
also ich wollte mir ein Bachup von meinem System machen, am besten per Knoppix boot und dann:

Code:
tar cfvz test.tar.gz tarfiledir

aber:
hierbei wird immer die gzip stufe 1 ausgewählt.. wie kann ich die stufe selber auswählen?

Frage 1 kann ich dir wohl beantworten. GNU tar beherrscht IIRC die Auswahl der Kompression nicht.

Ich würd das so machen:

Code:
tar cvf - /foo/ /bar/ |gzip -9 > foobar.tar.gz
 
Zuletzt bearbeitet:
Hallo,

die Antwort auf die 2. Frage ist evtl: Was ist, wenn man gar nicht gzip nimmt, sondern zip / zipsplit? Ist nur ne Teilantwort, weil es sich mit Ark nicht so benimmt wie unter Windows mit Winzip oder so, denn du kannst nicht die erste Datei öffnen und automatisch wird der "Verbund" angezeigt, aber du hast das ganze Verzeichnis in geteilten Archiven, die du einzeln öffnen kannst:
Code:
zip test * && zipsplit -i test
Das "-i" erstellt eine Indexdatei

Ich überlege aber selber noch, was damit alles gehen könnte, nur ne Idee..
.
.
.
EDIT (autom. Beitragszusammenführung) :
.

Oder mit rar....?

Code:
rar a -v50k -m5 test.rar *
baut aus dem Verzeichnis rar-Archive von ca. 50KB Größe, "-m5" nimmt eine hohe Kompressionsstufe.
 
Zuletzt bearbeitet:
hab's gestern mal ausprobiert...

also das mit dem zip scheint zu funktionieren, aber irgendwie hat das bei einer zu großen datei trotzdem abgebrochen und rar ist nicht in knoppix enthalten..

also das mit dem tar funktioniert, aber in sachen split tut sich, wie du schon gesagt hast, einfach nichts
 
zip ist böse genauso wie rar!

zip und rar können keine dateirechte speichern. viel spass wenn du das backup wieder herstellst und du überall alles anpassen müsstest. genau deswegen gibt es tar!

du kannst das tar.gz archiv splitten mit "split"
man split

Mfg Frank
 
Glaub ich hab da was...

http://radawana.cg.tuwien.ac.at/mail-archives/lll/200006/msg00125.html
http://www.lugbz.org/pipermail/lugbz-list/2002-May/009385.html

Man kann dem 2GByte Problem im Zusammenhang mit tar dadurch beikommen, das
man die Daten on-the-fly mit split aufteilt. Das ganze sieht dann etwa so
aus:

tar cpvf - /pfad_fuers_backup | split -b 1000m - backup.tar.

was Files mit je ein Gigabyte und dem Namen backup.tar.n mit n=1,2,3,...
erzeugt.

Um die Daten dann wieder auszutaren verwendet man

cat backup.tar.* | tar xvf -


Ich habe es ein wenig verändert:
[inspiron]pazzo$ tar -czvp --one-file-system --exclude RH_72 -f - . |
split -b 1000m - `hostname -s`_`whoami`_`date +"%Y-%m-%d"`.tar.gz.

Die Option one-file-system benutze ich in der Hoffnung, dass evtl.
gemountete Verzecihnisse nicht mitgesichert werden. Ich habe nämlich in
meiner home mehrere Verzeichnisse mit Samba mounts.

Weiters habe ich auch die ISOs der RedHat unter dem Verzeichnis RH_72
kopiert, sodass ich die CDs nicht andauernd mitschleppen und wechseln
muss. Mittels der Option --exclude RH_72 befehle ich dem tar-Tool das
Verzeichnis zu überspringen.

-f - sagt dem tar-Tool, dass das Ergebnis auf den "standard output"
Kanal geschrieben werden soll, sodass es mittels Pipe '|' dem split-Tool
übergeben werden kann.

Mittels split wird dann das Archiv in meherere 1G Teile aufgesplittet.
Als Eingang für split wird wieder - angegeben, sodass split die Daten
vom "standard input" einliest und als letzter Parameter gebe ich das
Filenamenprefix an, welches ich dynamisch zusammenstelle:

`hostname -s`_`whoami`_`date +"%Y-%m-%d"`.tar.gz.

das wird dann in meinen Fall

inspiron_pazzo_2002_05_24.tar.gz.

Und die Dateien werden dann von split folgendermaßen benannt:

inspiron_pazzo_2002_05_24.tar.gz.aa
inspiron_pazzo_2002_05_24.tar.gz.ab
...

Hat jetz nur den großen Nachteil das man die nicht on-the-fly lesen kann per Ark etc. um einzele Dateien wiederherzustellen man muss die also immer komplett entpacken...
 
Zuletzt bearbeitet:
du kannst das tar.gz archiv splitten mit "split"
man split
Das mit den Rechten ist für Backups das Totschlagarbument. Aber auch ZIP kommt so, wie ich es gemeint habe, *nach* Tar - also sind die Dateitrechte im Tarfile, das gezippt wird. Da ist kein unterscheid zu "tar ... | gzip" was auch nichts anderes tut als das "-z"-Flag im tar-Befehl (bzw. "-j" für bzip2). Daher greift das nicht, weder bei zip noch bei rar.

Daß man Dateien mit "split" splitten kann (womit eigentlich auch sonst...), ist klar, nur das war nicht die Frage. Sondern die Frage war, wie man einzelne Dateien kriegt, an deren Inhalte man kommt, ohne den ganzen Haufen vorher wieder zusammenfügen zu müssen... hab ich zumindest so verstanden.

Splitten kann man allerhand und mit cat wieder zusammenflicken, aber um die Vermeidung dieser Prozedur, nur um die 26. Datei mit der Größe von 755 KB aus dem 14. Fragment von 63 Teilen zu fischen, die zusammen XXX,X Gigabyte groß sind, den ganzen Kram wieder zusammen zu bauen....

Hat jetz nur den großen Nachteil das man die nicht on-the-fly lesen kann per Ark etc. um einzele Dateien wiederherzustellen man muss die also immer komplett entpacken...
eben.

Interessante Split-Kommandos, auch zum anlegen von Festplattenimages mit dd gepiped durch gzip und automatischem Splitten nebst der Syntax zum wieder zusammen schustern hätte ich dir auch geben können, nur war doch ganz genau das nicht gemeint dachte ich...
 
Zuletzt bearbeitet:
1. zip kann kein stdin und stdout bedienen. das ist also schon nen gewaltiger unterschied zu gzip!

2. kannst du mit tar auch nur einzellne files entpacken -> man tar
dann würdest du ein cat splited_files* |tar -parameter machen.

Frank
 
1. zip kann kein stdin und stdout bedienen. das ist also schon nen gewaltiger unterschied zu gzip!
Hallo

Zip ist nicht das übliche Archivierungsprogramm für Linux/Unix.
Aber dein Punkt 1 stimmt so nicht.
Auszug aus der Manpage von zip:
Version: 2.3.2
Compiled with gcc 4.1.2 20060613 (prerelease) (Debian 4.1.1-5) for Unix (Linux ELF) on Jul 6 2006.

zip will also accept a sin‐
gle dash ("-") as the zip file name, in which case it will write the zip file to standard output, allowing the
output to be piped to another program. For example:

zip -r - . | dd of=/dev/nrst0 obs=16k

would write the zip output directly to a tape with the specified block size for the purpose of backing up the
current directory.

zip also accepts a single dash ("-") as the name of a file to be compressed, in which case it will read the file
from standard input, allowing zip to take input from another program. For example:

tar cf - . | zip backup -

would compress the output of the tar command for the purpose of backing up the current directory. This generally
produces better compression than the previous example using the -r option, because zip can take advantage of
redundancy between files. The backup can be restored using the command

unzip -p backup | tar xf -

When no zip file name is given and stdout is not a terminal, zip acts as a filter, compressing standard input to
standard output. For example,

tar cf - . | zip | dd of=/dev/nrst0 obs=16k

is equivalent to

tar cf - . | zip - - | dd of=/dev/nrst0 obs=16k

Gruß Wolfgang
 
ok ;)

trotzdem ist zip nicht die wahl wie du auch schon sagst! ;)

Frank
 
2. kannst du mit tar auch nur einzellne files entpacken -> man tar
dann würdest du ein cat splited_files* |tar -parameter machen.
Was soll eigntlich immer dieses "man"?!? Ich habe in Perl und Bash und ähnlichem schon automatische Backups mit Tar und sonstwas gebaut, ich habe die manpage von tar schon öfters gelesen.

Tar ist aber groß, und wenn man es zippt (egal womit) und dann splittet, hat man das Problem, um dessen Vermeidung es hier geht... und was übrigens dein Bispiel tut: Alles zusammen bauen, Datei aus tar extrahieren.

Daß man aus tar-Files einzelne Einträge herausholen, hineintun, updaten oder löschen kann, ist mir bewußt, aber darum geht doch der Thread hier überhaupt nicht... sondern darum, wie man zipt, splittet und dann aus den einzelnen Teilen was heraus bekommt.

Ich selber archiviere kleinere Sachen immer als tgz, weils fix ist und als tar.bz2, wenn ich jedes mögliche Byte sparen will. Bitte sage mir jetzt keiner "man gzip und man bzip2" - ich weiß, daß man bei beiden die Kompressionsrate einstellen kann, aber bzip2 ist nun mal etwas langsamer und gleichzeitig effektiver als gzip, habe ich so gelesen und entspricht auch meiner Erfahrung. Aber die Frage, um die's ging, habe ich für mich auch nicht gelöst wirklich.
 
naja die dinger kannste dann auch nich mounten oder?
 
Wie meinen?

BTW: Deine Kleinebuchstabengroßmachtasten wollen gerne mal gebraucht werden. Danke.
 
^^

ALSO DIE IMAGES DIE MAN MIT PARTIMAGE ERSTELLT (klein is doch besser^^) auf jedenfall lassen sich die images nicht einhängen und das würde genausowenig Sinn machen wie ein .tar.gz.split Image, weil ich die Backups eigentlich nur für die Wiederherstellung von einzelnen Dateien nutzte und eher selten zur Wiederherstellung der gesamten Platte

also the only one I need, ist einfach ein Format was ich in mein System einhängen kann um dann durch meine ge'backup'te Platte zu browsen und fehlende Dateien zu kopieren etc.
 
Zuletzt bearbeitet:
wrüber reden wir?

Hi,
also ich wollte mir ein Bachup von meinem System machen
Reden wir über Backupmechanismen oder über
Hab noch ne viel bessere Frage:
Wie splite ich das Archiv, sodass es trotzdem noch normal zu entpacken ist (mit Ark, etc. also so, dass ich mir den Inhalt ansehen kann ohne das vorher zurück zu splitten)
Nicht, indem du ein Archiv baust, das dann zipst und anschließend splittest.

Der "Split" ist dann ein Fragment der (binären) Zip-Datei und hat keine Info drüber, was und wovon er überhaupt enthält. Sogar einzelne Dateien können dann in einem Frgament hinten anfangen und im nächsten vorne weiter gehen.

Die cat-Variante ist nicht in der Lage, schnell ein *SEEHHHR* großes Archiv zu durchstöbern, weil sie *alles* zusammen klebt und dann erst sucht.

Backups würde ich srategisch nach Wichtigkeit planen (einzelne Files -> tar -> [what the fuck ever with] ZIP -> Datenträger)

Partimge ist gut, aber zu redundant, wenn man weiß, was kritisch ist und was einfach "System" ist.

Wenn man das nicht trennen möchte, ist Partimage vielleicht die Wahll.
 
also einglich beides ^^

naja ich will halt Backups erstellen, sodass man diese öffnen kann und einzelne Dateien wiederherstellen kann ohne das komplette Archiv entpacken zu müssen.

diese müssen dann sonfern die größer wie 2GB sind gesplitet werden, da es wohl scheinbar ein Problem mit der glibc gibt welches dateinen >2GB verhindert, daher muss das auch on-the-fly gesplitet werden
 

Ähnliche Themen

Überblick: Komprimierung und Dekomprimierung von tar/gz/bz2/zip

RedHat 4 (Lineox 4) in VMware mit BusLogic Treiber

[HowTo] TeamSpeak 2 - RC2 - Server (Deutsch/Englisch)

Zurück
Oben