SquidGuard - urls-Eintraege werden z.T. nicht gefiltert

worker

worker

König
Hallo,

bei mir läuft Squid + SquidGuard eigentlich ohne Probleme, aber seit ca. zwei Tagen kämpfe ich hier mit einigen Porn-Seiten, die sich einfach nicht sperren lassen.
Bin langsam wirklich am verzweifeln.
Zuerst dachte ich, dass die besagten Inet-Seiten womöglich irrtümlich auf der Liste der "explizit erlaubten URLs/IPs" stehen, dem ist aber nicht so.

Die Einträge in der "urls"-Datei des SquidGuard sehen allgemein so aus: <webseite>.<tld>
... und das funktioniert auch sehr gut.
Jegliche Versuche die URLs "anders" zu blockieren (z.B. ein "http://" davor) bringen aber keine Änderung.

Ich lasse auch nach den Änderungen in den SquidGuard-Listen die DB neu aufbauen und squid die Einstellungen neu einlesen.

Wie gesagt, _etliche_ Einträge funktionieren prima - bis auf ein paar Neu-Einträge.

Hat wer eine Idee, woran dies liegen könnte?
Benutzen diese Webseiten eventuell einen Trick, um durch nen Proxy nicht gesperrt werden zu können?

Bin für jede Idee dankbar.
LG
worker
 
Ich kenne mich persönlich nicht gut mir Squid aus, aber die Tatsache, dass nur Neuenträge von dem Problem betroffen sind lässt vermuten, dass du irgendeine Einstellungsoption übersehen hast.
Vielleicht magst du mal ein Beispiel zu deiner Konfiguration posten.
Vielleicht wärst du mit einer whitelist-policy unterm Strich auch besser beraten.

MfG

Schard
 
Hallo Schard,

danke für Deine Antwort.

Ich denke ich habe mich ein klein wenig missverständlich ausgedrückt, als ich schrieb "Wie gesagt, _etliche_ Einträge funktionieren prima - bis auf ein paar Neu-Einträge".
Es muss korrekt heissen, dass alles gut funktioniert - auch neue Einträge - bis auf ein paar neue Einträge.
Sprich: Die Konfiguration an sich ist in Ordnung - da habe ich auch nichts verändert.
Die Änderung betrifft also nur die Blacklist.

Es ist mir eben vollkommen unverständlich, warum einige neue Einträge nicht geblockt werden, obwohl das Vorgehen ja immer das Gleiche ist:
- Datei auf
- Webseite eintragen
- Speichern
- SquidGuard-DB neu aufbauen & "squid reload"
- fertig

Edit: Die Einträge sehen immer wie folgt aus: domain.tld
Also keine Pfadangaben, oder das Protokoll (z.B. "http") davor, etc.

Gut, gestern hat Squid ein wenig rumgesponnen - selbst nach einem /etc/init.d/squid restart.
Ich musste die Kiste rebooten - danach ging alles wieder einwandfrei.
Btw.: Die Kiste läuft nun schon seit rund einem Jahr 1a.

Eine "White-List" kommt leider nicht infrage, da hätte ich noch viieeeel mehr zu tun ;-).
Trotzdem Danke für Deine Anregung.

LG
worker
 
Zuletzt bearbeitet:
[gelöst] SquidGuard - urls-Eintraege werden z.T. nicht gefiltert

Ähm ... *hust* ... öhm ...

Habe jetzt in der SquidGuard.conf folgendes abgeändert:
von
Code:
pass good ads !bad !aggressive !audio-video !drugs !gambling !hacking !mail !porn proxy !redirector !spyware !suspect !violence !warez all

auf
Code:
pass !bad !aggressive !audio-video !drugs !gambling !hacking !mail !porn proxy !redirector !spyware !suspect !violence !warez good ads all
abgeändert und siehe da - SquidGuard blockt wie erwünscht.

Mein Fehler :-( ... da in "ads" domains erlaubt werden, die in "bad" geblockt sind. Da hab ich echt Mist gebaut - sowohl in der Konfig, wie auch in der Erweiterung der Blacklist *schäm*.

Sorry für den unnötigen Post.
worker
 
Hallo worker,

deine Änderung ist nicht klug gewählt. Die Zeile 'pass ...' wird immer Liste für Liste abgearbeitet, d.h. es macht nur folgende Reihenfolge Sinn:

Sperren, was man nicht kennt: pass whitelist1 whitelist2 ... whitelistX !blacklist1 !blacklist2 .... !blacklistX all

oder, was aber kein Mensch machen wird, da nahezu unmöglich es zu warten

Nur durchlassen, was man kennt: pass whitelist1 whitelist2 ... whitelistX none

SquidGuard beendet seine Arbeit, wenn eine Liste (Abarbeitung von links nach rechts) einen Treffer hat, egal ob White oder Blacklist. Falls du vor 'all' noch weitere Whitelists aufzählst, wird nur noch unnötige Arbeit verrichtet. Mehr als 'all' kannst du in keiner Liste aufnehmen.

Diese Abarbeitung erklärt auch, warum du die Whitelists vor den Blacklists auflisten MUSST! Falls sich in eine der Blacklists eine Domain oder URL verirrt, die du definitv als ok befunden hast (z.B. Shallalist hatte mal eine Schweizer Bank in der Blacklist :-) ), dann wird diese, falls eingetragen, in der Whitelist erkannt und die folgenden Listen ignoriert und du kannst deine Online-Transaktionen trotzdem ausführen.

Mein Fehler :-( ... da in "ads" domains erlaubt werden, die in "bad" geblockt sind. Da hab ich echt Mist gebaut - sowohl in der Konfig, wie auch in der Erweiterung der Blacklist *schäm*.
=> siehe Erklärung oben: Eine Domain oder URL kann in beiden Listen stehen und wird öfter vorkommen, als du denkst, wenn du riessige Blacklists von aussen beziehst. Die schiessen hin und wieder über das Ziel hinaus. Frei nach der Devise: It's not a bug - it's a feature

Dass in deinem Fall Squid wieder funktionierte ist nicht durch die Umstellung der Listen zu erklären. Eventuell ist eine deiner Whitelists nicht ok und 'all' erledigt das dann von alleine.

Oder, was mir auch schon passiert ist, deine Berechtigungen auf dem Filesystem deines Server sind nicht mehr richtig. Wenn du unter dem User root die Listen neu generierst, dann schau nach den user:group (chown) und den Rechten (chmod) im SquidGuard-db Verzeichnis. Das hat bei mir Wunder jene bewirkt, wie du geglaubt hast zu haben.

Gruss
smokeystone
 
Zuletzt bearbeitet von einem Moderator:
Hi smokeystone,

Du hast absolut recht - merci für Deine Richtigstellung/Erklärung.

Ich musste mir Dokus über den Squidguard (insbesondere auch die "domains"- und "urls"-Dateien) anschauen, und hatte auch festgestellt, dass ich die Bedeutung bzw. den Unterschied (wohl damals aus dem englischen heraus) nicht richtig verstanden hatte.
Ebenfalls erklärten sich dann auch fast von selbst die Regex-Regeln, mit denen ich sowieso auf Kriegsfuss stehe/stand.

Auch habe ich damit wohl u.U. bestimmte Gruppen (Kinder/Erwachsene) und deren Konfiguration ein wenig durcheinander gebracht :-/ ...

Da nun (fast) alles korrekt funktioniert (durch ausprobieren) denke (/hoffe! *g*) ich das wesentliche nun richtig gemacht und verstanden zu haben.
Auch wenn ich viele meiner Einträge nun von "urls" nach "domains" (inkl. IPs, etc.) "umschreiben" muss.

Eine Domain oder URL kann in beiden Listen stehen und wird öfter vorkommen, als du denkst, wenn du riessige Blacklists von aussen beziehst.
Ja, das ist leider so. Bin gerade am Überlegen(/basteln), ob man diese doppelten,dreifachen,... Einträge in den Listen nicht durch nen Bash-Script (o.ä.) bereinigen kann.
Aber mir als Null-Plan-Scripter wird das vermutlich nicht so einfach fallen - schade, dass die Internet-Seiten, welche diese Blacklists zur verfügung stellen, nicht ebenfalls solche Scripts anbieten.
Wenige Änderungen in den Scripts für die jeweils individuelle Umgebung - und gut wäre.

Naja however - nochmals danke für Deinen Post.

LG
worker
 
Zurück
Oben