Best Practices für die URL‑Struktur für die Google Suche
Damit deine Website in der Google Suche effektiv gecrawlt werden kann, solltest du eine URL‑Struktur verwenden, die gecrawlt werden kann und die folgenden Anforderungen erfüllt. Wenn deine URLs die folgenden Kriterien nicht erfüllen, wird deine Website in der Google Suche wahrscheinlich ineffizient gecrawlt. Das kann unter anderem zu extrem hohen Crawling-Frequenzen oder gar nicht zum Crawling führen.
Anforderungen an eine crawlbare URL‑Struktur | |||||||
---|---|---|---|---|---|---|---|
IETF STD 66 einhalten |
Die Google Suche unterstützt URLs gemäß IETF STD 66. Zeichen, die vom Standard als reserviert definiert sind, müssen prozentcodiert werden. |
||||||
Keine URL‑Fragmente verwenden, um Inhalte zu ändern |
Verwende keine Fragmente, um den Inhalt einer Seite zu ändern, da die Google Suche im Allgemeinen keine URL‑Fragmente unterstützt. Hier ein Beispiel für ein URL‑Fragment: https://example.com/#/potatoes Wenn du mit JavaScript Inhalte änderst, verwende stattdessen die History API. |
||||||
Gängige Codierung für URL‑Parameter verwenden |
Verwende für URL‑Parameter die folgende gängige Codierung: Trenne Schlüssel/Wert-Paare mit einem Gleichheitszeichen (
|
URL‑Struktur verständlich gestalten
Damit Nutzer und die Google Suche deine Website besser nachvollziehen können, empfehlen wir eine einfache URL‑Struktur. Beachte dabei nach Möglichkeit die folgenden Best Practices.
Best Practices | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|
Beschreibende URLs verwenden |
Verwende in deinen URLs nach Möglichkeit lesbare Wörter statt langer ID-Nummern.
|
||||||||||
Sprache der Zielgruppe verwenden |
Verwende in der URL Wörter in der Sprache deiner Zielgruppe (und gegebenenfalls transliterierte Wörter). Wenn deine Zielgruppe beispielsweise auf Deutsch sucht, verwende deutsche Wörter in der URL: https://example.com/lebensmittel/pfefferminz Wenn deine Zielgruppe auf Japanisch sucht, verwende japanische Wörter in der URL: https://example.com/ペパーミント |
||||||||||
UTF‑8‑Codierung nach Bedarf verwenden |
Wenn du Links zu Seiten auf deiner Website erstellst, verwende nach Bedarf die UTF‑8‑Codierung in den
|
||||||||||
Bindestrich verwenden, um Wörter zu trennen |
Wörter in URLs sollten nach Möglichkeit getrennt werden. Wir empfehlen insbesondere die Verwendung von Bindestrichen (
|
||||||||||
Möglichst wenige Parameter verwenden |
Kürze URLs nach Möglichkeit, indem du nicht erforderliche Parameter weglässt. Das sind Parameter, die die Inhalte nicht ändern. | ||||||||||
Bei URLs Groß-/Kleinschreibung beachten |
Wie bei jedem anderen HTTP‑Client, der IETF STD 66 entspricht, wird bei der URL‑Verarbeitung in der Google Suche die Groß- und Kleinschreibung beachtet. So werden beispielsweise sowohl /APPLE als auch /apple als unterschiedliche URLs mit eigenen Inhalten behandelt. Wenn die Groß- und Kleinschreibung im Text einer URL vom Webserver gleich behandelt werden, wandle den gesamten Text entweder in Groß- oder Kleinschreibung um. So kann Google besser erkennen, wenn URLs auf dieselbe Seite verweisen.
|
||||||||||
Für multiregionale Websites |
Wenn deine Website multiregional ist, verwende eine URL‑Struktur, mit der du deine Website einfach geografisch ausrichten kannst. Weitere Beispiele für die Strukturierung deiner URLs findest du unter Länderspezifische URLs verwenden. Empfohlen (mit einer länderspezifischen Domain): https://example.de Empfohlen (mit einem länderspezifischen Unterverzeichnis mit gTLD): https://example.com/de/ |
Häufige Probleme mit URLs vermeiden
Zu komplexe URLs – insbesondere URLs mit zahlreichen Parametern – können Crawlern Schwierigkeiten bereiten, da es unnötig viele URLs gibt, die allesamt auf identische oder ähnliche Inhalte auf deiner Website verweisen. Dadurch kann die Google Suche eventuell nicht den gesamten Inhalt der Website indexieren oder der Googlebot braucht erheblich mehr Bandbreite als nötig.
Eine unnötig hohe Anzahl von URLs kann verschiedene Ursachen haben. Dazu gehören:
Häufige Probleme | |
---|---|
Kombiniertes Filtern einer Gruppe von Elementen |
Viele Websites bieten verschiedene Ansichten derselben Gruppe von Elementen oder Suchergebnissen, die Nutzer nach bestimmten Kriterien filtern können (z. B. „Hotels am Strand“). Wenn Filter kombiniert werden können (z. B. „Hotels am Strand“ und „mit Fitnessraum“), steigt die Anzahl der URLs (Datenansichten) drastisch an. Das Erstellen zahlreicher Hotellisten mit minimalen Unterschieden ist aber überflüssig, da der Googlebot nur wenige Listen braucht, über die er auf die Seite des jeweiligen Hotels zugreifen kann. Beispiel:
|
Irrelevante Parameter |
Irrelevante Parameter in der URL können zu einer hohen Anzahl von URLs führen, z. B.:
Verwende eine robots.txt‑Datei, um den Zugriff des Googlebots auf diese problematischen URLs zu blockieren. |
Kalenderprobleme |
Ein dynamisch erstellter Kalender könnte Links zu Terminen in der Zukunft oder der Vergangenheit ohne Einschränkungen des Start- oder Enddatums generieren. Beispiel: https://example.com/calendar.php?d=13&m=8&y=2011
Falls du in deine Website einen unendlichen Kalender eingebettet hast, füge in Links zu dynamisch erstellten zukünftigen Kalenderseiten ein |
Fehlerhafte relative Links |
Platzierst du einen übergeordneten relativen Link auf der falschen Seite, kann dies unendliche Bereiche generieren, wenn dein Server für nicht vorhandene Seiten mit dem falschen HTTP‑Statuscode antwortet. Ein übergeordneter relativer Link wie <a href="../../category/stuff">...</a> auf https://example.com/category/community/070413/html/FAQ.htm kann beispielsweise zu gefälschten URLs wie https://example.com/category/community/category/stuff führen.
Verwende in deinen Links stammbezogene relative URLs anstelle von übergeordneten relativen URLs, um das Problem zu beheben.
|
Probleme mit der URL‑Struktur im Zusammenhang mit dem Crawling beheben
Wenn du feststellst, dass diese problematischen URLs von der Google Suche gecrawlt werden, empfehlen wir Folgendes:
- Verwende eine robots.txt‑Datei, um den Zugriff des Googlebots auf problematische URLs zu blockieren. Blockiere dynamische URLs, z. B. URLs, die Suchergebnisse generieren, oder URLs, die unendliche Bereiche generieren, wie beispielsweise Kalender, sowie Sortier- und Filterfunktionen.
- Wenn deine Website eine Facettensuche hat, erfährst du hier, wie du das Crawling dieser URLs verwaltest.