Hallo Lug!
Kennt jemand ein Programm für Webserver oder Linux, das die access.log von Apache verarbeitet? Es soll einige Einstellungsmöglichkeiten bieten, z.B. bestimmte Verzeichnisse ausschließen oder voraussetzen, gegen Verfälschungen der Statistik meinen eigenen Browser ausschließen, den Zeitrahmen einschränken etc.
Außerdem hätte ich gerne ein Profil des Otto-Normal-Surfers. Ich weiß auch nicht, wie das gehen soll. Vielleicht, indem alle Abrufe einer IP und eines Browsers ohne Unterbrechung größer T (T=Zeit) zusammengefaßt werden und ich erhalte, wie lange wie viele Surfer auf dem Server waren und wo sie ein- und ausgestiegen sind. So stelle ich mir das jedenfalls vor, es mag ganz anders sinnvoll sein.
Und dann noch eine bunte Ausgabe, möglichst als Webseite. Ich hoffe, das sind nicht zu viele Wünsche auf einmal ;-)
Thomas
On Wed, 26 Nov 2003 21:41:35 +0100 Thomas Schmidt lug-dd@thomasschmidt.com wrote:
Hallo Lug!
Kennt jemand ein Programm für Webserver oder Linux, das die access.log von Apache verarbeitet? Es soll einige Einstellungsmöglichkeiten bieten, z.B. bestimmte Verzeichnisse ausschließen oder voraussetzen, gegen Verfälschungen der Statistik meinen eigenen Browser ausschließen, den Zeitrahmen einschränken etc.
Außerdem hätte ich gerne ein Profil des Otto-Normal-Surfers. Ich weiß auch nicht, wie das gehen soll. Vielleicht, indem alle Abrufe einer IP und eines Browsers ohne Unterbrechung größer T (T=Zeit) zusammengefaßt werden und ich erhalte, wie lange wie viele Surfer auf dem Server waren und wo sie ein- und ausgestiegen sind. So stelle ich mir das jedenfalls vor, es mag ganz anders sinnvoll sein.
Und dann noch eine bunte Ausgabe, möglichst als Webseite. Ich hoffe, das sind nicht zu viele Wünsche auf einmal ;-)
Thomas
Ich denke, du suchst analog: http://www.analog.cx/
Grüße Frank Benkstein.
'n Abend,
On Wednesday 26 November 2003 21:41, Thomas Schmidt wrote:
Kennt jemand ein Programm für Webserver oder Linux, das die access.log von Apache verarbeitet? Es soll einige Einstellungsmöglichkeiten bieten, z.B. bestimmte Verzeichnisse ausschließen oder voraussetzen, gegen Verfälschungen der Statistik meinen eigenen Browser ausschließen, den Zeitrahmen einschränken etc.
Hast du dir {webalizer, analog, awstats} schonmal angeschaut? Die Probe auf's Exempel: http://ggzgamingzone.org/cgi-bin/awstats.pl (Die TUDix-Verrückten sind dort immer noch unterwegs...) Das ist die woody-Version von awstats, die aktuellen sind noch ein wenig bunter. Der webalizer ist eher schlicht gehalten, wird auch seit 2001 nicht mehr entwickelt, ist aber nach zeitraubender Konfiguration recht gut einsetzbar.
Außerdem hätte ich gerne ein Profil des Otto-Normal-Surfers. Ich weiß auch nicht, wie das gehen soll. Vielleicht, indem alle Abrufe einer IP und eines Browsers ohne Unterbrechung größer T (T=Zeit) zusammengefaßt werden und ich erhalte, wie lange wie viele Surfer auf dem Server waren und wo sie ein- und ausgestiegen sind. So stelle ich mir das jedenfalls vor, es mag ganz anders sinnvoll sein.
Ah ja, der gläserne Surfer. Du leistest dir hoffentlich nebenher einen Datenschutzbeauftragten :-) Ich denke, da mußt du mit Perl ran, wenn du individuelle Statistiken haben willst. Durchschnittliche Besucherzeit ist aber IIRC im neuen awstats mit drin. Naja, ist auch nur Perl.
Und dann noch eine bunte Ausgabe, möglichst als Webseite. Ich hoffe, das sind nicht zu viele Wünsche auf einmal ;-)
Kinder-Überraschung mit Webserver in jedem 7. Ei.
Noch ein paar Tips: - falls überhaupt von außen erreichbar und verlinkt, dann das Skript umbenennen. Dumme Leute schicken sonst Viagra-Requests, damit deren Link wiederum in der Statistik auftauchen, und somit deren Seite in Google höher bewertet wird. Kandidaten: gambling.com, gdough.com - ab und zu generell mal überprüfen. Auf meinem per DSL angebundenen Server kommen jetzt (und dabei ist die Sache schon Monate her) immer noch Leute via Suchmaschine an, deren Bochs-Emulator kaputt ist, nur weil ich ein Logfile davon hochgeladen habe. (Die mach ich jetzt alle glücklich, indem ich ihnen rate, doch einfach mal den Bochs zu aktualisieren.) - nicht den Browser-Statistiken glauben. Viele Konquerors geben sich als IE aus, damit sie auf kaputten Seiten keine "diese Seite funktioniert nur mit IE"-Meldungen angezeigt bekommen.
Naja, Data Mining ist ein Feld für sich, da wirst du sicher eine Zeit lang basteln dürfen. Und Statistik ist wieder was anderes, genau genommen.
Josef (der wöchentlich Statistik-Vorlesungen besuchen geht)
Josef Spillner (josef@ggzgamingzone.org) schrieb auf LUG-DD am Mi, 26 Nov, 2003; 21:58 +0100:
Hi,
Hast du dir {webalizer, analog, awstats} schonmal angeschaut?
Zusätzl.: modlogan http://jan.kneschke.de/projects/modlogan/
Gruß,
Frank
Hallo Lug!
Kennt jemand ein Programm für Webserver oder Linux, das die access.log von Apache verarbeitet?
Vielen Dank für Eure Tips! Ich habe mich erst einmal für AWstats entschieden, weil es relativ leicht installierbar ist (Perl) und eine nette HTML-Seite produziert.
Problematisch ist momentan noch, daß 1&1 jeden Tag eine neue Datei anfängt und die alte gz-packt und jede Woche daraus eine große gz-gepackte Datei macht. Dadurch erfordert das Einlesen der neuesten Daten einige Zusammensetz- Handarbeit.
Auf meinem Server laufen diverse Projekte in verschiedenen Verzeichnissen unter der gleichen Domain. Wenn ich nur die Daten zu einem Projekt haben möchte, und das für jedes Projekt, muß ich für jedes eine Config-Datei haben und die Statistik einzeln erstellen lassen. Kann man dem Programm nicht sagen, daß ich vor der Generierung nach den Unterverzeichnissen der ersten Ebene trennen soll oder mit einer Config mehrere unabhängige Statistiken gleichzeitig machen lassen?
Thomas
lug-dd@mailman.schlittermann.de