wget - maximale dateigrösse erreicht

lazarusz

lazarusz

Kaffe Süchtler
nabend.

allso cih saug hier lustig an nem deb file 4.4 G, und nach 3,5 G bricht wget ab.
"maximale dateigrösse erreicht" was kann ich machen das mir der das nicht abwürgt. d4x hat das auch mal gemacht. und gftp kann ich ned nehmen weils ein http download ist.

bitte um tipps.
 
Das liegt garantiert nicht an deinem Programmen, sondern an deinem Dateisystem.
 
wget

Hallo


Welches Debian nutz du denn ?

Es gibt wget-Versionen, die könenn nur dateien bis max. 4GB downloaden. Es gibt aber einen Befehl bei wget, damit kannst du ermitteln, ob es für größere dateien als 4Gb kompiliert wurde.

Mfg
schwedenmann
 
Das liegt garantiert nicht an deinem Programmen, sondern an deinem Dateisystem.

Das einzige Filesystem dass dann Probleme machen könnte wäre FAT32 , oder nicht ?

Oder gibts noch Linuxfilesysteme die Dateien größer 4GB Probleme haben ?

Interessant finde ich dass du 4,4 GB nicht über ftp sonder http bekommst. Müsste dann mindestens ein Apache2.2 sein oder ein ganz anderer Server sein, da alles unter Apache2.2 keine Dateien größer 2 GB hochladen kann.

Kannst du die Datei nicht auch von einem ftp beziehen ?

Da hast du vielleicht weniger Probleme , auser du hast besagtes FAT32 dann hast du bei der größe immer Probleme. Egal welches Protokoll.

Gruß Sono
 
Hallo
Zum Thema wget:
Zitat:
As of 2004.11.13 the latest official version of wget cannot download files of size more than 2Gb. While development of large file support in the official version of wget is underway, I could not wait and hacked the code myself. I've succeeded in forcing wget to download correctly large files by ftp via network which frequently drops connection.
......
# The ftp server from which you are going to download the file should support large files. Many ftp servers do not support it at all, or do not support it by default.

# Your operating system and your file system should support files larger then 2Gb.

# Web server Apache 2.0.50 and older does not support large files, for this reason even patched wget is not able to retrieve large files. So far, I know that only cherokee Web server provides limited large file support.....
Quelle: http://software.lpetrov.net/wget-LFS/

Mehr ist dazu wohl nicht zu sagen.

Ich habe mir das dort angebotene Sourcepaket kompiliert und es funktioniert wunderbar.

Gruß Wolfgang
PS Ob es an deinem wget liegt, ist schon beim Anzeigen der Progressbar sichtbar. Dort wird dann nämlich eine falsche (negative) Filesize angezeigt.
 
morgen

danke mal

allso das file geht nur über http da es die testing dvd von debian ist.
fahren tu ich im moment kubuntu 5.10
und laden tu ichs auf eine fat32 partition.
ich werd mir die gepatchte version anschauen dann geb ich meldung.
 
wget

Hallo


und laden tu ichs auf eine fat32 partition.

Da liegt der Fehler, fat32, kann nur 4GB. Du kannst keine große Files auf fat32 schreiben, da du ubuntu 5.10 benutzt, sollte der fehler in wget ausgemertzt sein.


Mfg
schwedenmann
 
Da liegt der Fehler, fat32, kann nur 4GB. Du kannst keine große Files auf fat32 schreiben, da du ubuntu 5.10 benutzt, sollte der fehler in wget ausgemertzt sein.

aha tja wenn wget ok ist (den bei kubuntu ist gimp auf wget gelinkt) lad ichs woanders hin, das mit den 4 G pro datei auf fat32 hatte ich mal wieder vergessen *jaja das alte seicherlhirn* ;-)
 
ich bin mir jetzt nicht sicher wie du das meinst? du musst die datei auf ne ext3 partition oder so speichern nicht auf fat32. ein simples von einem anderen server holen hilft nix nur um das nochmal klarzustellen
 
ich bin mir jetzt nicht sicher wie du das meinst? du musst die datei auf ne ext3 partition oder so speichern nicht auf fat32. ein simples von einem anderen server holen hilft nix nur um das nochmal klarzustellen

ja danke bin zwar ned der schlauste, aber soweit fehlts dann doch wieder nicht ;-)

so danke das hat gefunkt, das fat32 ding wars.

ich hab noch eine frage
ich möcht gern das nach beendigung die kiste runterfährt wie häng ich das an wget an das der automatisch nach beendigung abschaldet, der comp mein ich.



so ich habs grad rausgefunden, geht mit &&
 
Zuletzt bearbeitet:
Zurück
Oben