wget holt nicht alle Bilder mit

StDoe

StDoe

Lebenskünstler
Hallo,

ich will eine Website mit wget holen. Dabei werden nicht alle Bilder mit geholt.

1. Versuch:
Code:
wget -r -k http://www.foo.bar.de
2. Versuch:
Code:
wget -r -l 8 -p -k http://www.foo.bar.de

Dabei sollte doch -p alle Sites so holen, daß sie komlett darstellbar sind - und -l8 ist seeehr hoch gegriffen.

Die meisten fehlenden Bilder werden auf der Original-Site als Standart in einem neuen Fenster geöffnet - könnte das eine Ursache sein?

---

GNU Wget 1.10.2
unter GNU bash, version 3.1.17(2)-release (i586-mandriva-linux-gnu)
 
Die meisten fehlenden Bilder werden auf der Original-Site als Standard in einem neuen Fenster geöffnet - könnte das eine Ursache sein?
Naja, werden sie denn überhaupt auf der Seite angezeigt, oder muss man nur auf irgendwelche unterstrichenen Textzeilen (sowas wie: Screenshots) klicken und es öffnet sich ein neues Fenster?

Hört sich nämlich nach javascript an. Kannst ja mal in die Statusleiste deines Browsers gucken, da wird das zum Beispiel bei firefox angezeigt. (Statusleiste == links unten) Falls es javascript sein sollte glaube ich nicht, dass wget das kann. (<- Alles nur semigefährliches Halbwissen, warte lieber auf kompetente Antworten.)
 
Hört sich nämlich nach javascript an. Kannst ja mal in die Statusleiste deines Browsers gucken, da wird das zum Beispiel bei firefox angezeigt. (Statusleiste == links unten)
Wenn ich den Mauszeiger auf das Bild stelle steht in der Statusleiste:
Code:
http://www.foo.bar.de/pics/foo-bar.jpg


EDIT:

Dabei wird dann dieses Bild und die Vergrößerung dieses Bildes (die ich nach Klicken auf dieses Bild im neuen Fenster erhalte) nicht mit runter geladen.
 
Zuletzt bearbeitet:
Hallo
Sieh dir den Quelltext von solchen Links an.
Javascript generierte Links kann man auch in der Statusleiste anzeigen.
Das ist also kein Kriterium.
wget interpretiert keinerlei clientseitige Scriptsprache!

Gruß Wolfgang
 
falls die website durchnummerierte bilder verwendet könntest du noch folgendes machen:

Code:
i=0; while true; do ((i+=1)); wget http://www.foo.bar.de/pics/foo-bar$i.jpg; done

du musst halt nur mal gucken, wann er fertig ist und den prozess eventuell manuell abbrechen.

gruß tuxlover
 
Vielen Dank für Eure schnelle Antwort.

Ich bin zwar nicht so richtig fit mit dem Quelltext-Lesen, aber soweit ich das überblicke sind das keine Javascript generierten Links. Zumal das erste Javascript dieser Site erst einige Zeilen weiter unten beginnt. Bis zum entsprechenden Link ist alles reiner HTML-Code und die Links die nicht runtergeladen werden unterscheiden sich (soweit ich das erkenne) nicht von denen, die runtergeladen werden.

Ich traue mich nicht den Quellcode einer Site hier ins Forum zu stellen, um keine Urheberrechte zu verletzen.

Jedoch habe ich etwas anderes festgestellt: Auf allen betreffenden Sites wird, wenn ich sie mit Konqueror öffne, unten rechts ein bug angezeigt, der bedeutet, daß die Site einen Kodierungsfehler enthält (s. Bild im Anhang). Könnte das eine Ursache sein?

@tuxlover:

Die Bilder haben alle völlig unterschiedliche Namen und selbst wenn, dann bleibt mir immer noch das Problem, die Bilder zu den entsprechenden Sites zuzuordnen. - Danke trotzdem.
 

Anhänge

  • Bild-01.jpg
    Bild-01.jpg
    42,9 KB · Aufrufe: 14
also ich hätte da nur noch mal ein tipp für dich wenn du websiten offline speichern willst, geht das besser mit der firefox erweiterung scrapbook.
 
Zurück
Oben