SCP File too large nach 100% Übertragung

J

jimmyone

Eroberer
Hallo zusammen,

ich habe mit SCP eine Datei von einem auf einen anderen Server kopiert.
Das File ist eine virtuelle Festplatte und hat eine Größe von 300GB.

Das hat auch alles geklappt und heute Morgen gucke ich auf die Console und da steht: 100 % 300 GB 5h File too large.

Was ist denn jetzt wahr... Kann man jetzt davon ausgehen, das er das File richtig übertragen hat? Er schreibt ja 100% und das File ist auf der anderen Seite auch da... Und die Filesite stimmt auch bis auf das letzte Byte. Aber warum dann diese Meldung.
 
Code:
md5sum zieldatei
md5sum quelldatei
Ausgabe vergleichen und voila.
 
Achso... Ja das habe ich noch nicht gemacht.
Und die Summen sind auch unterschiedlich...

Was mache ich denn gegen das File too large bzw. wo kommt das Problem an dieser Stelle her? Denn das neue System ist ja blos ein Softwareupdate auf einem stärkeren Server...

Hängt das mit der Übertragung zusammen?
Was kann ich tun, damit es letztlich doch erfolgreich ist?
 
Hmm, schwierig so was. Ist das lokal oder übers Internet? Du kannst es sonst einfach nochmal versuchen. Mit rsync könntest du versuchen den noch fehlenden Rest zu übertragen (glaube --partial oder so war die Option). Dann könntest du mal probieren, ob du auf dem Zielrechner eine Datei in der gewünschten Größe anlegen kannst, z.B. mit dd.
Code:
dd if=/dev/zero of=zieldatei bs=1m count=<Anzahl MB>
 
Ja habe ich... Hat nichts geholfen.
Ich habe gedacht, verdammt, das kann doch echt nicht sein.

Im übrigen habe ich auch einen Fehler gemacht.
Ich hätte euch wohl eine entscheidende Info geben müssen.
Es geht hierbei nämlich um ESX von VMWare.
Das ist ja kein Vollwertiges Linux System im eigentlichen Sinne...

Habe den Fehler aber heute gefunden...

Hat zwar etwas gedauert, aber gut...

Der ESX hat als Filesystem ein System das sich vmfs3 oder so nennt...
Dabei gelten eben folgende Blockgrößen für die Filesize...

1MB = 256 GB - 512 Byte
2MB = 512 GB - 512 Byte

usw.

aufgefallen bzw. in den Sinn gekommen ist mir das erst, als ich gesehen habe das jede Datei nach 256 GB einfach abbricht... Selbst neu erzeugte Files mit irgendwelchen Binärdaten... Also Zufallsdaten. Funktion bei 256 GB abgebrochen.

Und dann ist mir das wieder eigefallen...

Ende vom Lied: Filesystem mit einer neuen Blockgröße formatiert und es geht... :D
Manchmal kanns auch einfach sein. Übrigens, werde ich keine VM mehr mit SCP verschieben. VMWare hat endlich dafür n Client entwickelt, der richtig gut funktioniert.
 
Zurück
Oben