telefon +49 30 726277-900
email Kontakt

Schönhauser Allee 12 • D-10119 Berlin • Tel. +49(0)30 726277-900 • Fax +49(0)30 726277-901

E-Mail: info@interactive-tools.de • Web: http://www.scoreberlin.de

Artikel

URL-Design

Einige Gedanken zu besser auffindbaren Websites.

URL-Design: Suchmaschinen-freundlich ist gut. User-freundlich ist besser.

In Usability-Seminaren sind manche Teilnehmer ziemlich erstaunt, wenn sie den Begriff »URL-Design« hören. Oft glaubt man, dass URLs als Dateinamen gar nicht beeinflussbar seien, und wenn überhaupt, dass das doch ein Fall für die Suchmaschinen-Optimierer sei. Und was das denn mit dem Besucher zu tun habe – Hauptsache, der Browser zeigt den richtigen Inhalt an.

Sprechende Links

Suchmaschinenpräsenz ist in der Tat ein wichtiges Content-Usability-Kriterium. Viele Suchmaschinen mögen beispielsweise keine Session-IDs – man hat ihren Bots eingeimpft, weder Frage- noch Dollarzeichen von Fremden anzunehmen. Wenn beispielsweise ein CMS solche kryptischen URLs generiert, empfiehlt es sich, sie serverseitig umzuschreiben.

Nur den Suchmaschinen zuliebe? Suchmaschinen-freundliche URLs sind nämlich noch lange nicht benutzer-freundlich. Wenn wir den unleserlichen URL urlaub.com/index.php?74638&id=7xqr$1 umschreiben zu urlaub.com/index/74638/7xqr/, dann hilft das sicher einigen Suchmaschinen-Crawlern. Wir einfachen User hätten es jedoch mit dem Schema urlaub.com/fernreisen/malediven/ wesentlich einfacher. Es würde uns sogar stärker aktivieren, auf einen solchen Link zu klicken.

Ein »sprechender Link« löst in der Regel eine Erwartungshaltung aus: Man erwartet, den entsprechenden Inhalt aufzufinden. Die Aussicht auf Erfolg lässt uns sogar längere Wartezeiten in Kauf nehmen. Besser merken können wir uns solche Links obendrein. Und wenn dann der Seiteninhalt mit der Linkbezeichnung korrespondiert, womöglich auch in den ersten h1- und h2-Überschriften, dann freut das wiederum die Suchmaschine.

Absolute vs. relative Links

Deren Bots sind völlig merk- und intelligenzbefreit. Also sollte man das Bestmögliche tun, sie in ihrer Arbeit zu unterstützen; schließlich können sie nichts dafür. (Deshalb empfiehlt es sich übrigens, zuallererst an die robots.txt denken; man will ja nicht alles auffindbar machen.) Dabei hilft ganz fundamental die interne Verlinkung.

Relative Linkpfade (à la ../../fernurlaub/malediven/) werden zu gern und zu schnell mal falsch gesetzt. Spätere Veränderungen in der Verzeichnisstruktur ziehen auch zwingend Anpassungen an den Pfaden nach sich. Und selbst wenn man alle Pfade richtig setzt: Irgendein Bot wird früher oder später irritiert ankommen und einfach gar nichts kapieren. Das müllt nicht nur die Error-Logs zu, sondern kann sich auf die Platzierung in den SERPs auswirken.

Absolut gesetzte (à la /fernurlaub/malediven/) anstelle von relativ gesetzten Links gehen nicht vom aktuellen Verzeichnis, sondern vom Root-Level (Wurzelverzeichnis) aus. So stellt man sicher, dass irgendwelche dahergelaufenen Crawler/Spider/Bots auch alles richtig indexieren. Und spätere Veränderungen fallen leichter, wenn beispielsweise die Dateien in ein höheres, niedrigeres oder anderes Verzeichnis verschoben werden. Auch das kann passieren – spätestens mit dem kommenden Redesign, dem neuen CMS oder einfach der neuen Projektleitung. Übrigens: Je weniger Verzeichnis- beziehungsweise Link-Ebenen, umso besser. Denn mit jeder neuen bzw. tieferen Ebene zieren sich die Bots mehr, dort hinabzucrawlen.

Weiterleitungen

Wenn dies geschieht, steht man vor einer neuen Situation: Jetzt geht es nicht mehr darum, seine Seiten von den Suchmaschinen indexieren zu lassen, sondern darum, die hart erarbeiteten Positionen in den Suchmaschinen zu behalten, vielleicht sogar zu verbessern. Und außerdem sollen Bookmarks und alte Links keine frustrierende 404-Not-found-Fehlerseite ausspucken, sondern doch bitte gefälligst jetzt und sofort zur aktuellen Seite weiterleiten.

Cool URIs don't change, wünscht sich WWW-Erfinder Tim Berners-Lee. Recht hat er. Manchmal geht es jedoch nicht anders; vor allem, wenn es sich eben nicht um »cool URIs« handelt. Damit dies nicht zu einem Suchmaschinen-Desaster führt und auch die Website-Besucher nicht von einem Haufen Fehlermeldungen abgeschreckt werden, sollten permanente Weiterleitungen eingesetzt werden.

Hierzu gibt es verschiedene Möglichkeiten von Javascript über Metarefreshs bis hin zum PHP-Aufruf. Die beste aller Möglichkeiten ist ein serverseitiger Redirect, der sogenannte Redirect 301 beziehungsweise RedirectPermanent. Ein kleiner Eintrag in der .htaccess-Datei pro betreffendes Dokument ist alles:

RedirectPermanent /alte-datei/ http://meine-domain.de/neue-datei.php

Man kann auch Redirect permanent oder Redirect 301 schreiben; das hat alles denselben Effekt: der Server weist auf Verlangen darauf hin, dass die abgerufene Seite für immer umgezogen ist, und zwar an den URL, den er umgehend ausliefert. Wenn es nicht für immer, sondern nur vorübergehend sein soll, ersetzt man das Permanent einfach durch ein simples Temp. Der Besucher selbst merkt davon nichts; nicht einmal eine Zeitverzögerung.

Wer keinen Zugriff auf seine .htaccess-Datei hat, kann in die alte Datei einen PHP-Aufruf setzen:

header("HTTP/1.1 301 Moved Permanently");
header("Location: http://meine-domain.de/neue-datei.php");
exit();

Kein Javascript, kein Meta-Refresh! Dafür sind selbst die gefräßigsten Bots nicht programmiert. Und das ist gut so.

Inhaltsverzeichnis

Wer eine sehr allgemeine oder nicht gerade web-affine Zielgruppe bedient, nennt seine Sitemap Inhalt oder Inhaltsverzeichnis. Sie bedient allerdings auch ausgehungerte Bots. Deshalb tut man gut daran, die Sitemap möglichst weit oben im Verzeichnislevel zu platzieren (z.B. meine-domain.de/inhalt.php). So ist es nur noch eine Frage der Zeit, bis auch Dummy-Bots die neuen Seiten gefressen haben. Zudem kann man in seinem Inhaltsverzeichnis schön und unbescholten seine Keywords platzieren. Achten sollte man darauf, dass die Linktexte erwartungskonform sind: Ein Link, der sich »Reisebericht Malediven« nennt, sollte nicht auf eine Seite führen, deren h1-Überschrift und Titel den Besucher mit »Willkommen auf der Partnerseite« begrüßen.

Eindeutig bringt mehr

Nicht nur die Sprache sollte also eindeutig sein, auch der jeweilige Dokumenten-Inhalt. Besonders Suchmaschinen-Nutzer legen ein auffälliges Verhalten an den Tag, was die Informationsverarbeitung betrifft. Sie haben ein klares Ziel, nämlich Informationen zu ihrem gerade eingegebenen Suchbegriff zu finden. In den SERPs erscheinen Links mit einer Kurzbeschreibung; je nach Suchmaschine findet der User vier bis sechs Ergebnisse direkt im Viewport seines Browsers vor. Mehr interessiert ihn erst einmal nicht; er klickt auf den vielversprechendsten Link.

Viele Faktoren lassen sich jetzt schön beobachten:

  • Ist es ein sprechender Link? Wenn ja, sind die Chancen hoch, dass der User auch mal länger wartet als bei anderen Ergebnissen. Sogenannte Power-User klicken auch mal bei kryptischen URLs gleich in den Google-Cache.
  • Wird ein Frame neugeladen, gelangt man gar auf einen Splash-Screen, findet eine sichtbare Weiterleitung statt? Oftmals sind solche Seiten schon zugeklickt, bevor sie überhaupt geladen sind.
  • Korrespondiert die gefundene Seite mit den Suchbegriffen oder wenigstens mit der Beschreibung in den SERPs? Wenn ja, gut. Wenn nein, schlecht. Noch ist der User ungeduldig, weiß, dass noch viele andere, womöglich relevantere Suchergebnisse auf ihn warten. Also zurück und zum nächsten Ergebnis: Googlehupf! Das ist besonders schade, wenn der gesuchte Inhalt sich vielleicht auf der Website eine Seite weiter findet. Hier haben Texter und SEO (Suchmaschinen-Optimierer) geschludert: Sie sind nicht eindeutig gewesen.

Fazit: Suchmaschinen-User haben nicht nur ein sehr klares Ziel, sondern auch nervöse Finger. Den Zurück-Button und das Schließen-Kreuz finden sie mit geschlossenen Augen. In der Konsequenz bedeutet das, dass das, was draufsteht, auch drin sein sollte. Seitentitel, Überschriften und Inhalt sollten eindeutig miteinander korrespondieren. Ausnahmen bestätigen die Regel.

Kanonisches URL-Schema

Die Problematik ist ganz einfach: Viele URLs verderben den Brei. Ein Inhalt, der sowohl über die Default-Datei (index.htm, index.php...), über das Verzeichnis, über eine Subdomain und über eine Weiterleitung erreichbar ist, hat ein Problem: Es gibt denselben Inhalt gleich mehrfach.

  • http://unsere-domain.de/
  • http://unsere-domain.de/index.php
  • http://unsere-domain.de/start/
  • http://unsere-domain.de/start/index.php
  • http://www.unsere-domain.de/
  • http://www.unsere-domain.de/index.php
  • http://www.unsere-domain.de/start/
  • http://www.unsere-domain.de/start/index.php

Alle diese URLs zeigen auf eine einzige Ressource. Das ist nicht gut.

Je weniger Links auf eine Ressource zeigen, umso besser für User und Suchmaschinen. Christoph Schneegans ist noch konsequenter und schreibt über Kanonische Adressen: »Verwenden Sie [...] eine URL für eine Ressource.«

Das ist gut für den Pagerank, für den User und für den Gedanken, dass jede Seite nur einmal vorhanden sein sollte. Wer im Nachhinein nur unter einer Adresse erreichbar sein will, informiert sich am besten zunächst darüber, mit welcher Adresse man in den wichtigen Suchmachinen am stärksten verzeichnet ist.

Da die großen Suchmaschinen zunächst nach der kanonischen Seitenversion suchen, sollte man auch nur auf diese verlinken und nicht auf die Default-Dateien. Ein href="/" ist also womöglich wesentlich sinnvoller als ein href="../index.php".

Darüber hinaus sind kurze URLs nicht nur ästhetischer, sie sind auch der E-Mail-Usability zuträglich. Viele Mail-Clients schneiden Zeilen nach 72 Zeichen ab; ganz schnell ist der versendete Link nicht mehr anklickbar. Dass man am Telefon kürzere Links schneller und fehlerfreier transportieren kann, sei hier nur am Rande erwähnt.

Kürzere URLs erreicht man auch durch das Abschneiden der Dateiendungen (via Content Negotiation oder über das Apache-Modul mod_rewrite). Das hat weniger was mit Ästhetik zu tun: Vielleicht bringt der nächste Relaunch oder das nächste CMS die Umstellung auf PHP, ASP, SSI oder was auch immer mit sich. Dann freut man sich über soviel Weitsicht.

Außerdem ist der URL ein Teil des Web-User-Interfaces, sagt Jakob Nielsen. Und weil das so ist, sollte eine Website nicht nur über einen einfach zu merkenden Domain-Namen verfügen, sondern auch über kurze URLs, die sich einfach tippen lassen und die Struktur der Website abbilden. Darüber hinaus sollten sie »hackable« sein, dem User also erlauben, sich durch Herauslöschen des Dateinamens im Browser-Adressfeld in die nächsthöhere Verzeichnisebene zu bewegen. Und außerdem fordert Nielsen P-URLs, persistente URLs, oder wie Berners-Lee viel einprägsamer ausdrückt: »Cool URIs don't change.« (P-URLs werden in der Blogosphäre Permalinks, permanente Links oder kurz Plinks genannt, was einprägsamer ist, die Sache allerdings nicht wirklich auf den Punkt bringt.)

Gutes URL-Design zeichnet also nicht nur eine intelligent verwaltete Site-Struktur ab, sondern legt gleichzeitig dem Website-Besucher ein nützliches Kommunikations- und Orientierungs-Tool in die Hand. Jesse James Garrett von Adaptive Path schreibt dazu in seinem Artikel User-Centered URL Design: »Recognizing that people really do read URLs – and, in turn, making those URLs easy for people to read – is really just an extension of the user-centered philosophy of design.«

Mehr lesen:

Choose URLs Wisely (W3.org)

Towards Next Generation URLs (Thomas A. Powell)

Making URLs accessible (IBM, The Cranky User)

Erstmals erschien dieser Artikel am 31.01.2004 in Marcus Völkels Weblog Usability Inside.

Veröffentlichung: 02/2004
Marcus Völkel 

← Zurück zur Artikelliste