Hallo an Alle!
Folgendes Problem steht in unserer Firma:
Ein Win-PC soll über das lokale Netzwerk ins Internet -> null problemo! Aber: er soll nur bestimmte Seiten aufrufen dürfen!
Nun kenne ich die Möglichkeit (schon angewendet) der '/etc/forbidden_domains', ich aber brauche ja sowas wie 'allowed domains'!
Hat das schon mal Jemand realisiert oder hat wenigstens ein paar Tips für mich???
Da fällt mir noch ein: Bei einem zentralen Internet-Zugang von Netzwerk-PC über Squid, kann man da Online-Zeit vergeben oder wenigstens pro User abrechnen?
Danke schon mal, die erste Frage ist aber die Brennendste!
Peter.
Hallo,
On Tue, Nov 02, 1999 at 04:34:56PM -0500, Peter Zabelt wrote:
Ein Win-PC soll ueber das lokale Netzwerk ins Internet -> null problemo! Aber: er soll nur bestimmte Seiten aufrufen duerfen!
Nun kenne ich die Moeglichkeit (schon angewendet) der '/etc/forbidden_domains', ich aber brauche ja sowas wie 'allowed domains'!
so etwas in squid.conf (ungetestet):
acl urlok url_regex linux|debian|lug-dd http_access allow urlok http_access deny all
Da faellt mir noch ein: Bei einem zentralen Internet-Zugang von Netzwerk-PC ueber Squid, kann man da Online-Zeit vergeben oder wenigstens pro User abrechnen?
Im Prinzip schon, aber kommt darauf an, was Du mit 'Online-Zeit' meinst.
Torsten
On Tue, Nov 02, 1999 at 08:04:47PM +0100, Torsten Werner wrote:
so etwas in squid.conf (ungetestet):
acl urlok url_regex linux|debian|lug-dd http_access allow urlok http_access deny all
(ebenso ungetestet) Bei url_regex wird mMn auf die ganze URL getestet, womit man per http://www.i-love-windows.com/?debian auch zum Ziel kommt.
Reinhard
On Tue, Nov 02, 1999 at 10:46:08PM +0100, Reinhard Foerster wrote:
On Tue, Nov 02, 1999 at 08:04:47PM +0100, Torsten Werner wrote:
acl urlok url_regex linux|debian|lug-dd http_access allow urlok http_access deny all
Bei url_regex wird mMn auf die ganze URL getestet, womit man per http://www.i-love-windows.com/?debian auch zum Ziel kommt.
Man kann das Logfile ueberwachen und die Regeln weiter verbessern. Wer sich auskennt, findet aber immer einen Weg zu tunneln. Wie war das beim letzten Treffen: IP ueber Brieftauben? Es ist wohl auch kaum sinnvoll, die User unnoetig zu knebeln.
Torsten
sich auskennt, findet aber immer einen Weg zu tunneln. Wie war das beim letzten Treffen: IP ueber Brieftauben? Es ist wohl auch kaum sinnvoll,
RFC1149, erweitert durch RFC2549 um Quality of Service
Holger
On Tue, Nov 02, 1999 at 04:34:56PM -0500, Peter Zabelt wrote:
Folgendes Problem steht in unserer Firma:
Ein Win-PC soll über das lokale Netzwerk ins Internet -> null problemo! Aber: er soll nur bestimmte Seiten aufrufen dürfen!
Hallo Peter,
Du definierst ACLs fuer die Ziele pro IP und/oder pro domain , z.B. mit
acl all src 0.0.0.0/0.0.0.0 acl allowed_ip dst 192.168.0.0/255.255.255.0 acl allowed_domain dstdomain evil.com
und erlaubst nur die Zugriffe, die dahin wollen:
http_access allow allowed_domain http_access allow allowed_ip dst http_access deny all
Nun kenne ich die Möglichkeit (schon angewendet) der '/etc/forbidden_domains', ich aber brauche ja sowas wie 'allowed domains'!
Dafür interessiert sich kein squiq. Steht alles in (der gut erklaerten) squid.conf drin.
Hat das schon mal Jemand realisiert oder hat wenigstens ein paar Tips für mich???
Nach Zielen nicht nur nach src.
Da fällt mir noch ein: Bei einem zentralen Internet-Zugang von Netzwerk-PC über Squid, kann man da Online-Zeit vergeben oder wenigstens pro User abrechnen?
Falls ein Nutzer fest einer IP zugeordnet ist geht das ueber das Logfile vom squid. Es gibt eine grosse Zahl fertiger Auswetungstools fuer squid-Logs z.B. 'Calamaris'. (Ja, mit lediglich obiger Konfig kann ein findiger Nutzer trotzdem noch raus in die weite Welt.)
Gruesse Reinhard
lug-dd@mailman.schlittermann.de