Schönhauser Allee 12 • D-10119 Berlin • Tel. +49(0)30 726277-900 • Fax +49(0)30 726277-901

E-Mail: info@interactive-tools.de • Web: http://www.scoreberlin.de

Artikel

Web-Statistik-Mythen

»Wir hatten schon einen Tag nach der Veröffentlichung unserer Homepage 5.579 Besucher!« Sie stutzen. So viel Interesse an einem winzigen Unternehmen, das einen kleinen erlesenen Personenkreis zur Zielgruppe hat, hätten Sie niemals vermutet.

Sollte Ihnen das nächste Mal jemand einen solchen Statistik-Bären aufbinden, haken Sie nach. Sehr oft verwechseln Laien die Hits mit den Visits.

Hits
Als Hits werden bei den meisten Web-Statistiken die Zugriffe auf Dateien bezeichnet. Wenn beispielsweise eine aufgerufene Seite fünf Grafikdateien enthält, wird der Aufruf dieser Seite mit insgesamt sechs Hits in der Statistik verzeichnet: ein Hit für das Dokument selbst, fünf Hits für die darin aufgerufenen Grafikdateien.

Visits
Als Visits werden die Seitenbesuche bezeichnet. Wenn beispielsweise eine Seite mit fünf Grafikdateien besucht wird, verzeichnet die Statistik einen Visit, aber sechs Hits.

Die schönen »Besucherzahlen« Ihres Gesprächspartners entpuppen sich nach einem Blick auf seine Web-Statistik als 5.579 Hits und 21 Visits. Aha, denken Sie, dann wurde seine Website also nur 21 Mal besucht?

Jein.

Angenommen, die Website verwendet sogenannte Frames. Was sich visuell als eine Seite darstellt, besteht z.B. tatsächlich aus drei Seiten: eine Seite, die das Frameset definiert, zwei Seiten, die in das Frameset hineingeladen werden.

Frameset

Teilt man die 21 »Seitenbesuche« durch die Anzahl der Seiten, die erforderlich sind, um die vermeintlich eine Seite darzustellen, nämlich drei, erhält man als Ergebnis bescheidene sieben Besuche.

Die vermeintlichen sieben Besuche stellen sich wieder ganz anders dar, wenn die sogenannten Proxy-Caches berücksichtigt werden. Diese werden von Online-Diensten eingesetzt, um häufig abgerufene Seiten zwischenzuspeichern, damit sie für den Anwender schneller verfügbar sind. An den Anwender ausgeliefert werden die Seiten vom Proxy-Cache, nicht von dem Web-Server, auf dem sie tatsächlich liegen. Das heißt, dass eine Seite, die nur einen Visit in der Statistik verursacht hat, tatsächlich mehrere Male besucht worden sein kann.

Darüber hinaus verwenden die meisten Nutzer einen Browser, der ein eigenes Browser-Cache anlegt. Auch in diesem Fall erfolgt oft kein Zugriff auf den Web-Server.

Etwas aussagekräftiger wird die Statistik, wenn man das Cachen der Seiten verhindert. Die Seiten werden dann bei jedem Aufruf von dem Web-Server geladen, auf dem sie tatsächlich liegen. Einen Gefallen tut man seinen Besuchern damit sicherlich nicht. Diese müssen meistens länger warten, bis die Seite geladen ist – wen die Geduld verlässt, der sucht das Weite.

Bei Seiten, die regelmäßig aktualisiert werden, macht es durchaus Sinn, das Cachen zu verhindern. Schließlich sollen die Besucher die aktuellsten Seiten sehen und nicht die alten aus einem Proxy-Cache. Bei Seiten, die sehr selten aktualisiert werden wie Kontaktformulare und Unternehmensprofil, sollte sorgfältig abgewogen werden, ob diese um der Statistik willen »uncachebar« gemacht werden.

Auch lässt sich nicht hundertprozentig ausschließen, dass einige wenige Proxy-Caches auch »uncachebare« Seiten für eine bestimmte Zeit zwischenspeichern.

Nicht nur Caches können die Statistik verfälschen, sondern auch die sogenannten Robots oder Spider der Suchmaschinen. Das sind von Suchmaschinen ausgesandte Programme, die die Inhalte einer Website indexieren, damit diese später über die Datenbank der Suchmaschine auffindbar sind. Sie produzieren genau wie »echte« Besucher Hits und Visits und hinterlassen ihre Spuren in den Logfiles. Nur sind die durch die Robots verursachten Besuche wertlos, wenn es darum geht, das Interesse des Zielpublikums am Webangebot zu messen.

Beispiel:
Eine Website hat 50.000 Hits, die sich wie folgt aufteilen:

Hits Anwenderprogramme
3.000 Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)
3.000 Mozilla/4.0 (compatible; MSIE 6.0; Windows 98; Win 9x 4.90)
3.000 Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
1.000 Opera/5.01 (Windows 98; U) [en]
10.000 AbachoBOT
10.000 Googlebot/2.1
10.000 FAST-WebCrawler/2.2.8
10.000 KIT-Fireball/2.0


In dem Beispiel wurden nur 10.000 Hits durch »echte« Besucher verursacht, die mit den Browsern Internet Explorer (MSIE) und Opera unterwegs waren. Die anderen 40.000 Hits kamen durch Suchmaschinen-Robots zustande.

Auch Rückschlüsse aus dem Besucherverhalten aus den Zeitangaben der Statistik (Activity-Report) können zu Fehleinschätzungen hinsichtlich des Besucherverhaltens führen.

Beispiel:
Aus der Statistik ist ersichtlich, dass die Website am häufigsten zwischen 20 und 22 Uhr am Montag besucht wird. Berücksichtigt man die Besuche der Robots aus obigem Beispiel, wird schnell klar, das die Zeitangaben der Statistik – wenn überhaupt – nur äußerst vage Rückschlüsse auf das Verhalten der »echten« Besucher zulassen.

Die statistischen Zeitangaben dienen vor allem dem Administrator der Website. Sie helfen ihm zu beurteilen, welcher Zeitpunkt am günstigsten ist, um größere Wartungsarbeiten oder Änderungen an der Website durchzuführen. Natürlich sind dafür die verkehrsarmen Zeiten am besten geeignet. So werden Robots beim Indexieren der Website nicht gestört, und Besucher müssen nicht mit Problemen bei der Nutzung der Website durch Wartungsarbeiten rechnen.

Statistiken, die auf Logfiles basieren, lassen in der Regel nur sehr vage Rückschlüsse auf das tatsächliche Nutzungsverhalten zu. Verlässlichere Aussagen erhält man, indem auf jeder Seite ein eigener Zähler implementiert wird. Allerdings wird auch hier durch Caching-Technologien nicht mehr jeder Zugriff erfasst.

Welche Aussagekraft hat die Statistik dann noch? Das kommt auf die Statistik an und auf das, was man von ihr wissen möchte. Die kostenlose Statistik, die es bei fast jedem Web-Hoster gratis gibt, ist in der Regel nicht so detailliert aufgeschlüsselt, dass sie verlässliche Aussagen über das tatsächliche Nutzungsverhalten zulässt. Um dieses näher zu analysieren, sollte man entweder die Logfiles downloaden und auswerten oder die oben erwähnte zählerbasierende Statistik einsetzen.

Kostenlose Statistiken sind aber in der Regel völlig ausreichend, wenn man z.B. den Erfolg einer Suchdienst-Anmeldung messen möchte. In diesem Fall kann man sehr gut die Statistik-Zahlen vorher und nachher miteinander vergleichen: Der Traffic zählt – zunächst jedenfalls.

Keinesfalls sollten allein auf Basis einer allgemein gehaltenen Statistik umfangreiche Umbau- oder Erweiterungsmaßnahmen an der Website geplant werden. Diese sind in der Regel mit Zeit- und Geldaufwand verbunden, der sich im Nachhinein als enttäuschende Fehlinvestition erweisen kann, z.B. wenn mehr Robots als Besucher auf der Website waren oder wenn anhand der statistischen Zeitangaben (Tag, Uhrzeit etc.) falsche Rückschlüsse auf das Besucherverhalten gezogen wurden.

Um sich vor Fehlinvestitionen zu schützen, sollte das tatsächliche Nutzungsverhalten sorgfältig analysiert werden. Diese Aufgabe kann eine »Kostenlos«-Statistik in der Regel nicht erfüllen. Hier sollte man auf eine Logfile-Analyse setzen bzw. eine zählerbasierende Statistik auswerten. Natürlich ist das mit Aufwand verbunden – dieser ist aber deutlich geringer als eine Investition in die falschen Maßnahmen. Wie so oft gilt auch hier: Was von Wert ist, hat seinen Preis.

Veröffentlichung: 06/2002
Silvana Borsutzky

← Zurück zur Artikelliste