Clean URL

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Eine Clean URL oder Pretty URL (deutsch etwa saubere URL, hübsche URL) ist ein Uniform Resource Locator (URL) der lesbare Wörter anstelle von technischen Kürzeln oder Datenbank-IDs enthält. So sind im Pfad weder searchpart-[1] oder query-Komponenten[2] noch Dateinamenserweiterungen wie z. B. .html, .php oder andere Informationen zur verwendeten Servertechnik wie cgi-bin oder cgi enthalten. Stattdessen werden lesbare und beschreibende Titel oder lexikografische Lemmas, Kalenderdaten meist der Erscheinung und auch die Sprache des Inhalts, meist abgekürzt nach ISO 639, im URL verwendet.

Es können auch Mischungen aus beiden Methoden auftreten, indem die ID zwar behalten wird, aber lesbare Worte hinzugefügt werden. In diesem Fall ist die ID das entscheidende Merkmal der URL und die Worte können verändert oder weggelassen werden.

In der Praxis ist es in der Regel gewollt, dass sich URLs aus dem Webbrowser als Lesezeichen ablegen und zu einem beliebigen späteren Zeitpunkt wieder aufrufen lassen können. Sie sollen auch an Dritte weitergegeben werden und von diesen aufgerufen werden können und dieselbe Aktion auslösen bzw. denselben Zustand erzeugen (etwa eine Suche durchführen).[3]

Beispiele[Bearbeiten]

Ein Beispiel für sowohl saubere als auch sprechende URLs ist Wikipedia, deren URLs nach folgendem Schema aufgebaut sind:

<Protokoll><Sprachcode>.wikipedia.org/wiki/<Artikelbezeichnung>

So sieht die URL für den Begriff Clean URL beispielsweise wie folgt aus

http://de.wikipedia.org/wiki/Clean_URL

anstatt einer URL, die Rückschlüsse zur Technik gestattet

http://de.wikipedia.org/w/index.php?title=Clean_URL

oder einer URL, die keinen Hinweis zum Inhalt gibt

http://de.wikipedia.org/w/index.php?id=123

Technik[Bearbeiten]

Clean URLs lassen sich auf Webserver- und auf Webanwendungsebene umsetzen. Auf Webanwendungsebene muss jedoch auch der Webserver entsprechend konfiguriert sein.

Webserverebene[Bearbeiten]

Die meisten Webserver wie Apache HTTP Server oder nginx können „saubere“ URLs mithilfe von .htaccess oder auch mit Rewrite-Engines realisieren. Diese Module erlauben es, Anfragen anhand vorher definierter Regeln mithilfe von regulären Ausdrücken intern umzuschreiben, beziehungsweise umzuinterpretieren. So könnte beispielsweise die Anfrage von foo/bar dasselbe Ergebnis erzielen, wie die Anfrage von /index.php?q=/foo/bar. Das CGI-Protokoll bietet eine weitere Technik, dabei sieht ein Skript aufgerufen als /index.php/foo/bar /foo/bar als PATH_INFO.[4]

Webanwendungsebene[Bearbeiten]

Manche Web-Content-Management-Systeme beinhalten bereits passende Rewrite-Regeln wodurch das Aktivieren dieser trivial ist.

Vorteile[Bearbeiten]

  • Benutzer können die Relevanz von sprechenden URLs schneller bewerten (eine aussagekräftige URL wird in der Regel eher angeklickt als eine kryptische).
  • Benutzer können sich die URLs leichter merken (und ähnliche Dateiendungen wie html oder htm müssen nicht mehr geraten werden).
  • Externe Links und Lesezeichen auf eine Seite sind wesentlich länger gültig, da sie von internen technischen Änderungen unabhängig sind.
  • Bei der Suchmaschinen-Optimierung (dort auch sefURL für search engine friendly) werden im Suchmaschinenranking von Keywords neben dem Seiteninhalt auch Domain- und Dateinamen einzelner Seiten bewertet.[5]

Quellen[Bearbeiten]

  1. RFC1738: Uniform Resource Locators (URL). 3.3. HTTP. Abgerufen am 12. Juni 2011 (englisch).
  2. RFC3986: Uniform Resource Identifier (URI): Generic Syntax. 3. Syntax Components. Abgerufen am 12. Juni 2011 (englisch).
  3. Jakob Nielsen: URL as UI. Nielsen Norman Group, 21. März 1999, abgerufen am 6. April 2013 (englisch).
  4. http://tools.ietf.org/html/rfc3875#section-4.1.5
  5. Sefurl – Search Engine Friendly Uniform Resource Locator. Warum Sefurl? Abgerufen am 12. Juni 2011: „Stichwörter werden aber ebenso im Domainnamen und im Dateinamen der einzelnen Seiten bewertet.“

Weblinks[Bearbeiten]