Wget - Downloadlimit?

M

Mardyfox

Jungspund
Servus!

Ich hoffe ihr könnt mir Helfen.
Also folgendes.

Ich habe an meinem Standort leider nur Landeier DSL verfügbar (DSL light, maximal 384kbp/s) und bin im Besitz eines "WD MyBookWorld". Das ist eine Netzwerkfestplatte mit Linux Firmware (400MHZ Prozessor, 32MB RAM). Mit ein paar Tricks kann man auf dieser Netzwerkfestplatte SSH Zugang freischalten. (http://martin.hinner.info/mybook/) .

Nun, wenn ich jetzt eine Linux Distri runterladen will kann das bei einer Filesize von 3GB und mehr mit meinem Internetanschluss sehr sehr lange dauern. Also habe ich mir gedacht ich lass einfach meine Netzwerkfestplatte Downloadmanager spielen, mit 500GB Speicherplatz ist diese bestens dafür geeignet. Nicht zu vergessen ist der weitaus geringere Stromverbrauch gegenüber einen ganzen Desktop PC.

Also habe ich mir gedanken gemacht wie ich am besten einen Downloadmanager benutzen könnte, klar.. da gibts doch das mitgelieferte WGET. Natürlich könnte ich die Files jetzt einfach Tag und Nacht über die Kiste ziehen. Allerdings möchte ich noch Tagsüber ein bisschen Bandbreite übrighaben für meinen normalen Bedarf.

Also muss ich ein Speedlimit für WGET festlegen, da stehe ich nun vorm ersten Problem. Wie kann ich ein Speedlimit festlegen?

Und jetzt kommts ganz hart, wie kann ich Speedlimits für unterschiedliche Tageszeiten festlegen?? Damit ich auch Nachmittags wenigsten halbwegs ordentlich Surfen kann?

Oder kenn ihr vielleicht einen Alternativen KONSOLENBASIERTEN Downloadmanager der das kann?

Vielen Dank schon mal :)
 
Du hast dir mal die Manpage von wget angesehen?
Da steht die Lösung für eine Bandbreitenbegrenzung.
Stichwort: "--limit-rate"

Wie du das Zeitgesteuert regeln willst, hängt von deinem Geschick in Sachen Skript/Crontab ab.
;)

Gruß Wolfgang
 
auf Limit-Rate bin ich grad selbst gestoßen.. nur leider irgendwie..

wget: unrecognized option `--limit-rate=20k'

"Man" wurd wohl auch in der WD Distri Deaktiviert wegen der Performance, okay ich könnte mir vorstellen einen Crontab zu schalten der Abends den Download anschaltet, und Nachmittags wieder pausiert, und dann wiederrum fortsetzt... mhhhh, hast du da vielleicht auch ein Stichwort für mich wie ich Pausiere und Fortsetze ;)

Bin in Linux Sachen net ganz soo erfahren, das was ich brauchte bastelte ich für mich bis jetzt immer selber irgendwie zusammen was dazu führt das ich ein bisschen zu objektiv bin ;)
 
mhhhh, hast du da vielleicht auch ein Stichwort für mich wie ich Pausiere und Fortsetze ;)

du kannst mit der option -c oder --continue einen Download fortsetzen. Soweit ich weiß muss der Download nichtmal von wget begonnen worden sein. Laut manpage ist das aber das Standartverhalten von wget. d.h. wenn es die runterzuladende Datei schon im Verzeichnis gibt, dann versucht wget den Download fortzusetzen. Aber lies dir mal die Anleitung zu dem Thema durch, da scheint es ein paar Fallstricke zu geben...

du findes man pages übrigens auch im Internet (und die manpages auf anderen Maschinen sind natürlich auch immer noch da ...)
 
du kannst mit der option -c oder --continue einen Download fortsetzen. Soweit ich weiß muss der Download nichtmal von wget begonnen worden sein.
schon, aber längst nicht alle server unterstützen das, oder irre ich mich?
 
Moin,

Ich kenne die Festplatte zwar nicht aber achte darauf das Wget < V1.10 keine Datein runterladen kann die über 2 Gig. sind ( http://de.wikipedia.org/wiki/Wget ) im Zweifelsfall einfach mit >>> wget --version <<< überprüfen und ggf ncftp o.ä. benutzen.

bye
Ragnar
 
Ich vermute mal dass es sich nicht um um wget selber sondern die Implementierung in Busybox handelt. Daher kann es gut sein dass eine menge Optionen fehlen.
 
Sieht so aus als würde es sich um "BusyBox" handeln..
[root@MyBookWorld ~]# wget
BusyBox v1.2.2 (2007.03.26-11:07+0000) multi-call binary

Usage: wget [-c|--continue] [-q|--quiet] [-O|--output-document file]
[--header 'header: value'] [-Y|--proxy on/off] [-P DIR] url

wget retrieves files via HTTP or FTP

Options:
-c continue retrieval of aborted transfers
-q quiet mode - do not print
-P Set directory prefix to DIR
-O save to filename ('-' for stdout)
-Y use proxy ('on' or 'off')

Ergo sämtliche Commands ausser den gelisteten werden nicht funktionieren..

Mh naja ich denke ich werde dann wohl WGET neurunterladen und kompilieren müssen, Danke euch allen für die schnellen Antworten :)

Wer noch Tips, Anregungen etc. hat bitte posten ;)
 
Wenn du Linux ISOs ziehen willst wieso benutzt du dann nicht rtorrent? Habe das erst kürzlich auf meinem vServer eingerichtet und das funktioniert wunderbar, die rtorrent.rc lässt sich auch super anpassen. :)
 
Zurück
Oben