Datensicherung über NFS bricht bei 4.2GB ab

Nemesis

Nemesis

N3RD
hi,
ich weiss net genau, ob das hier reinpasst, aber ich dachte es is soviel platz also poste ichs mal hier.

ich möchte eine datensicherung des, fast, kompletten systems mit tar machen, dazu habe ich ein nfs gemountet und mit tar ein archiev erzeugt, das da rein soll.
Problem ist nun, dass er immer bei 4,2gb abbricht.
warum 4.2gb ? ich bin noch nicht draufgekommen ... aber, das müssten 32bit sein ... was auch immer diese erkenntnis bringen mag.

hat wer ne idee ?


danke !
 
Nen FAT System kann nur 4GB und ein paar zerdrückte pro Datei. Ist das vielleicht ein FAT?
Dann musste halt auf NTFS, EXT3 oder was auch immer wechseln.
 
NFS hat auch das Problem, je nach Konfiguration. Das einfachste wäre, die tar Datei zu splitten.
Code:
tar -cz /pfad | split .....
Parameter für split müsstest du in der Manpage nachschlagen.
 
Nfs

Hallo


warum 4.2gb ? ich bin noch nicht draufgekommen ... aber, das müssten 32bit sein ... was auch immer diese erkenntnis bringen mag.

Benutzt du nfs3 oder das neuere nfsv4 ?

nfs3 hat nämlich eine Größenbeschränkung.

Also entwedre nfsv4 implementieren, oder wie schon gesagt, splitten.

mfg
schwedenmann
 
hm, am nfs liegt es wohl nicht, das ist nfs4, aber er bricht auch ab, wenn man das file lokal erstellt.
 
kommt irgend eine fehlerausgabe in den logs oder in der STDERR
 
Mein erster Tipp wäre ja:
Probier halt auch mal sowas, dann siehst du ob es an der Dateigröße leigt:
Code:
dd if=/dev/zero of=dateiname bs=10m count=1024
Es könnte ja auch sein, dass es wegen irgendeiner Datei abbricht (Probs im Dateisystem, whatever...)
 
naja, df -h sagt mir ja nur, dass ich noch genügend platz habe.
ich habs jetzt mit rsync gelöst, da gibts keine probleme :)
 
dann ist eine datei defekt ....
denn rsync überspringt defekte dateien und macht weiter, was cp oder scp nicht macht
 

Ähnliche Themen

Server-Monitoring mit RRDTool

Zurück
Oben