URL-Struktur einfach halten

Die URL-Struktur einer Website sollte so einfach wie möglich gehalten sein. Organisieren Sie Ihre Inhalte am besten so, dass URLs logisch und in einer Weise konstruiert sind, die für Nutzer sinnvoll ist. Verwenden Sie lesbare Wörter anstatt langer ID-Nummern, falls möglich. Wenn du zum Beispiel nach Informationen zur Luftfahrt suchst, hilft eine URL wie http://de.wikipedia.org/wiki/Luftfahrt bei der Entscheidung, ob du auf diesen Link klicken sollst. Eine URL wie http://www.beispiel.de/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f spricht Nutzer hingegen viel weniger an.

Auch URLs mit Satzzeichen helfen. Die URL http://www.beispiel.de/gruenes-kleid.html lässt sich besser lesen als http://www.beispiel.de/grueneskleid.html. Wir empfehlen die Verwendung von Bindestrichen (-) anstelle von Unterstrichen (_) in URLs.

Zu komplexe URLs – insbesondere URLs mit zahlreichen Parametern – können Crawlern Schwierigkeiten bereiten, da es unnötig viele URLs gibt, die allesamt auf identische oder ähnliche Inhalte auf deiner Website verweisen. Dadurch kann der Googlebot eventuell nicht den gesamten Inhalt der Website indexieren oder braucht erheblich mehr Bandbreite als nötig.

Häufige Ursachen dieses Problems

Eine unnötig große Anzahl URLs kann verschiedene Ursachen haben, dartunter:

  • Kombiniertes Filtern einer Gruppe von Elementen: Viele Websites bieten verschiedene Ansichten derselben Gruppe von Elementen oder Suchergebnissen, die Nutzer nach bestimmten Kriterien filtern können (z. B. „Hotels am Strand“). Wenn Filter kombiniert werden können (z. B. „Hotels am Strand“ und „mit Fitnessraum“), steigt die Anzahl der URLs (Datenansichten) drastisch an. Das Erstellen zahlreicher Hotellisten mit minimalen Unterschieden ist aber überflüssig, da der Googlebot nur wenige Listen braucht, über die er auf die Seite des jeweiligen Hotels zugreifen kann. Beispiel:
    • Hotels zu „Niedrigpreisen“:
      http://www.example.com/hotel-search-results.jsp?Ne=292&N=461
    • Hotels zu „Niedrigpreisen“ am Strand:
      http://www.example.com/hotel-search-results.jsp?Ne=292&N=461+4294967240
    • Hotels zu „Niedrigpreisen“ am Strand mit Fitnessraum:
      http://www.example.com/hotel-search-results.jsp?Ne=292&N=461+4294967240+4294967270
  • Dynamische Erstellung von Dokumenten: Dabei können geringfügige Änderungen aufgrund von Zählern, Zeitstempeln oder Werbeanzeigen entstehen.
  • Problematische Parameter in der URL: Sitzungs-IDs können beispielsweise zu zahlreichen Duplikaten und einer größeren Anzahl URLs führen.
  • Sortierparameter: Einige große Shoppingwebsites bieten mehrere Möglichkeiten zum Sortieren derselben Artikel, was zu einer deutlich größeren Anzahl von URLs führt. Beispiel:
    http://www.example.com/results?search_type=search_videos&search_query=tpb&search_sort=relevance
       &search_category=25
  • Irrelevante Parameter in der URL, z. B. Verweisparameter: Beispiel:
    http://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=
       OPD+Product+Page&cat=79
    http://www.example.com/discuss/showthread.php?referrerid=249406&threadid=535913
    http://www.example.com/products/products.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessories.
  • Kalenderprobleme: Ein dynamisch erstellter Kalender könnte Links zu Terminen in der Zukunft oder der Vergangenheit ohne Einschränkungen des Start- oder Enddatums generieren. Beispiel:
    http://www.example.com/calendar.php?d=13&m=8&y=2011
    http://www.example.com/calendar/cgi?2008&month=jan
  • Fehlerhafte relative Links: Fehlerhafte relative Links haben oft unbegrenzte Bereiche zur Folge. Dieses Problem entsteht meist aufgrund wiederholter Pfadelemente. Beispiel:
    http://www.example.com/index.shtml/discuss/category/school/061121/html/interview/
      category/health/070223/html/category/business/070302/html/category/community/070413/html/FAQ.htm
Schritte zur Lösung dieses Problems

Um potenzielle Probleme mit der URL-Struktur zu vermeiden, empfehlen wir Folgendes:

  • Verwenden Sie eine robots.txt-Datei, um den Zugriff des Googlebots auf problematische URLs zu blockieren. Blockieren Sie dynamische URLs, z. B. URLs, die Suchergebnisse generieren, oder URLs, die unendliche Bereiche generieren, wie beispielsweise Kalender. Reguläre Ausdrücke in Ihrer robots.txt-Datei ermöglichen Ihnen, eine große Zahl von URLs problemlos zu blockieren.
  • Verwende nach Möglichkeit keine Sitzungs-IDs in URLs. Ziehe stattdessen Cookies in Betracht. Weitere Informationen findest du in unseren Richtlinien für Webmaster.
  • Kürze URLs nach Möglichkeit, indem du nicht erforderliche Parameter weglässt.
  • Falls du in deine Website einen unendlichen Kalender eingebettet hast, füge ein nofollow-Attribut in Links zu dynamisch erstellten zukünftigen Kalenderseiten ein.
  • Prüfe deine Website auf fehlerhafte relative Links.