Downloadgeschwindigkeit begrenzen

stein

stein

Meinung-zu-alles-Geber
Ich habe auf meinem PC Ubuntu und das Problem ist dass das Netzwerk von mehreren Personen benutzt wird und wenn dann einer große Datei runter lädt haben die andern ein total langsames Internet. Gibt es eine Möglichkeit an einem PC(wir haben nur einen Download-PC) eine Höchstgeschwindigkeit einzustellen oder kann das nur über den Router gemacht werden?
 
Installier doch lokal einen Squid und benutzt die Traffic Shaping Routinen, das ist zwar keine echte Bandbreitenbegrenzung, könnte für dein Zwecke aber durchaus ausreichen.
 
Danke für den Vorschlag werde es mal versuche, aber es gibt ein Poblem. Das hier scheint leider die einzige gute Referenz zu dem Thema zu sein, aber leider fehlt der interesante Teil. Hat da einer ne Ahnung?

10. Bandbreitensteuerung mit Delay Pools
Das vollständige Kapitel zu Delay-Pools ist aus Copyright-Gründen zz. nur in der Buchversion im dpunkt.Verlag erhältlich.
 
Hast du im Router Traffic Sharping an? Weil dieser müsste das eigentlich automatisch machen das alle "gleich schnelles Internet" haben.

Sonst könntest dir vllt noch QoS anschauen.
 
Wenn du eine Linux kiste als router da stehen hast kannst du mit iptables einen anderen queue algorythmus auswählen.

Und portage sagt mir http://www.hping.org/netbrake/

Aber ich denke mit qos am router wirst du am einfachsten fahren.
 
Naja im Prinzip geht das so

Code:
delay_pools 1    # Wieviele Delay Pools willst du anlegen
delay_class  1 1 # Delaypool 1 gehört zur Klasse 1(Gleiche Bandbreitenbeschränkung für alle)
delay_parameters 1 8192 # Bandbreitenbegrenzung auf 128 kBits/s
acl compuda src 1.2.3.4 # ACL compuda schliest Computer mit der IP 1.2.3.4 ein
delay_access 1 compuda # Clients aus ACL 1 gehören zu delaypool 1

noch mehr Informationen findest du zum Beispiel hier
http://www.serverwatch.com/tutorials/article.php/3357241
http://www.visolve.com/squid/squid24s1/delaypool.php
http://www.linux-schulserver.de/Sections-article1-p12.phtml

PS: Das Buch habe ich auch (auch wenn ich es nicht selber bezahlt habe ...) da steht auch nicht mehr drin als im HOWTO das rikola verlinkt hat. Allerdings ist es um Welten besser erklärt.
 
Zuletzt bearbeitet:
Eine andere, leicht zu verwirklichende Möglichkeit wäre der Einsatz von wget zum runterladen, das bietet eine "Geschwindigkeits-Begrenzung":
Code:
wget --limit-rate=100k URL
begrenzt die Datenrate auf 100 Kilobyte pro Sekunde, natürlich kannst du auch andere Werte nehmen.
Wenn man öfter runterläd empfieht sich ein Shell-Skript, das wget mit der gewünschten Geschwindigkeit startet, dem Skript wird dann die URL und wahlweise weitere Optionen übergeben.
Ich setze wget auf diese Weise schon seit Jahren aus dem gleichen Grund wie du ein.

Viele Grüße
ichunix
 
Das geht natürlich auch, ich habe ein Skript genommen, weil bei mir auch weitere Personen den Rechner zum Downloaden nehmen (mein Vater benutzt z.B. die C-Shell, während ich die bash nutze)
 
wget --limit-rate um die Downloadrate zu limitieren clientseitig.
Oder QoS auf dem Router installieren, dann wird das alles automatisch geregelt und du kannst einstellen: "surfen hat mehr Priorität als downloaden"


Edith sagt, dass das ja alles schon gesagt wurde. d'oh
 
Ich werde einfach ein Python Skript schrieben was die links aus einer Datei ausließt und dann mit wget downloaded. Das ist glaube ich das einfachste.
 

Ähnliche Themen

Gruppenchat: OTP-Verschlüsselung

Keine grafische Oberfläche (Debian Installation)

Deutsche Glasfaser IPv4 Geräte ins Internet bringen

Bootloader sichern und wiederherstellen mit dd

Linux "vergisst" Dateisystem?

Zurück
Oben