Richtlinien für Webmaster

Wenn du die unten stehenden Allgemeinen Richtlinien von Google einhältst, können wir deine Website leichter finden, indexieren und platzieren.

Wir empfehlen dringend, auch die Qualitätsrichtlinien weiter unten zu beachten. In diesen Richtlinien werden einige der unerlaubten Verfahren beschrieben, die zur endgültigen Entfernung einer Website aus dem Google-Index oder zu einer sonstigen Beeinträchtigung durch automatische oder manuelle Spammaßnahmen führen können. Von Spammaßnahmen betroffene Websites werden möglicherweise nicht mehr in den Suchergebnissen auf google.com oder auf einer Partnerwebsite von Google angezeigt.

Allgemeine Richtlinien

Google beim Finden der Seiten unterstützen

  • Stelle sicher, dass alle Seiten auf der Website über einen Link von einer anderen auffindbaren Seite erreicht werden können. Der verweisende Link sollte entweder Text oder im Fall von Bildern ein ALT-Attribut enthalten, das für die Landingpage relevant ist. Links, die gecrawlt werden können, enthalten <a>-Tags mit einem href-Attribut.
  • Stelle eine Sitemap-Datei mit Links zu den wichtigen Seiten deiner Website zur Verfügung. Erstelle auch eine Seite mit einer von Menschen lesbaren Liste mit Links zu diesen Seiten. Diese wird auch als Seitenindex oder Sitemap-Seite bezeichnet.
  • Beschränke die Anzahl der Links auf einer Seite auf ein vernünftiges Maß (maximal einige Tausend).
  • Prüfe, ob dein Webserver den HTTP-Header If-Modified-Since richtig unterstützt. Über diese Funktion kann dein Webserver Google mitteilen, ob der Inhalt seit dem letzten Crawling der Website geändert wurde. Mit dieser Funktion kannst du Bandbreite und Overhead sparen.
  • Verwalte dein Crawling-Budget mithilfe der Datei „robots.txt“ auf deinem Webserver, indem du das Crawling von unbegrenzten Bereichen wie Suchergebnisseiten verhinderst. Halte deine Datei „robots.txt“ auf dem neuesten Stand. Hier erfährst du, wie du das Crawling mithilfe der robots.txt-Datei verwaltest. Teste die Effektivität und Syntax deiner Datei „robots.txt“ mit dem robots.txt-Testtool.

Google beim Finden der Website unterstützen

Google beim Erkennen der Seiten unterstützen

  • Erstelle eine hilfreiche, informative Website und verfasse Seiten, die den Inhalt eindeutig und präzise beschreiben.
  • Überlege dir, welche Suchbegriffe Nutzer eingeben könnten, um deine Seiten zu suchen, und verwende sie auf deiner Website.
  • Achte darauf, dass die <title>-Elemente und alt-Attribute aussagekräftig, spezifisch und präzise sind.
  • Gestalte deine Website mit einer klar strukturierten Seitenhierarchie.
  • Beachte unsere empfohlenen Best Practices für Bilder, Videos und strukturierte Daten.
  • Wenn du ein Content-Management-System verwendest, z. B. Wix oder WordPress, vergewissere dich, dass das System Seiten und Links erstellt, die von Suchmaschinen gecrawlt werden können.
  • Damit Google die Inhalte deiner Website vollständig interpretieren kann, lass zu, dass alle Assets deiner Website gecrawlt werden, die das Rendern der Seite wesentlich beeinflussen können. Hierzu zählen z. B. CSS- und JavaScript-Dateien, die sich auf die Interpretation der Seiten auswirken. Durch das Indexierungssystem von Google wird eine Webseite so gerendert, wie der Nutzer sie sieht, einschließlich Bildern, CSS- und JavaScript-Dateien. Wenn du Seiten-Assets sehen möchtest, die nicht von Googlebot gecrawlt werden können, verwende das URL-Prüftool. Wenn du Fehler in den Anweisungen in deiner Datei „robots.txt“ beheben möchtest, verwende das Tool robots.txt Tester.
  • Ermögliche Such-Bots, deine Website ohne Sitzungs-IDs oder URL-Parameter zu crawlen, die ihren Weg durch die Website aufzeichnen. Diese Methoden sind hilfreich, um die Aktivitäten einzelner Nutzer zu analysieren. Das Zugriffsmuster von Such-Bots gestaltet sich jedoch vollkommen anders. Das Verwenden solcher Techniken kann zu einer unvollständigen Indexierung Ihrer Website führen, da Such-Bots unter Umständen keine URLs entfernen können, die unterschiedlich aussehen, aber auf dieselbe Seite verweisen.
  • Achte darauf, dass die wichtigsten Inhalte deiner Website standardmäßig sichtbar sind. Google ist in der Lage, HTML-Inhalte zu crawlen, die sich hinter Navigationselementen wie Tabs oder maximierbaren Bereichen verbergen. Wir stufen diese Inhalte jedoch als weniger zugänglich für Nutzer ein und sind der Ansicht, dass die wichtigsten Informationen in der Standard-Seitenansicht sichtbar sein sollten.
  • Ergreife angemessene Maßnahmen, damit sich Werbelinks auf deinen Seiten nicht auf das Suchmaschinen-Ranking auswirken. Verwende z. B. robots.txt, rel="nofollow" oder rel="sponsored", um zu verhindern, dass Crawler Werbelinks folgen.

Besucher beim Verwenden der Seiten unterstützen

  • Verwende zum Anzeigen wichtiger Namen und Links oder wichtiger Inhalte keine Bilder, sondern Text. Wenn du Bilder für Textinhalte verwenden musst, füge mithilfe des Attributs alt beschreibenden Text hinzu.
  • Achte darauf, dass alle Links auf Live-Webseiten verweisen. Verwende gültiges HTML.
  • Optimiere die Ladezeiten deiner Seite. Schnelle Websites tragen zur Zufriedenheit der Nutzer und zur Verbesserung der allgemeinen Qualität des Webs bei. Das betrifft vor allem Nutzer mit einer langsamen Internetverbindung. Google empfiehlt, die Leistung der Seite mit Tools wie PageSpeed Insights und Webpagetest.org zu testen.
  • Gestalte deine Website für alle Gerätetypen und -größen, einschließlich Desktop-Computern, Tablets und Smartphones. Mithilfe des Tools zum Test auf Optimierung für Mobilgeräte kannst du feststellen, wie gut deine Seiten auf Mobilgeräten funktionieren, und Feedback zu erforderlichen Korrekturen erhalten.
  • Teste, ob deine Website in verschiedenen Browsern richtig dargestellt wird.
  • Falls möglich, sichere die Verbindungen deiner Website mit HTTPS. Die Verschlüsselung von Interaktionen zwischen dem Nutzer und deiner Website ist bei der Kommunikation im Web empfehlenswert.
  • Achte darauf, dass deine Seiten von Lesern mit Sehbehinderungen genutzt werden können. Teste dazu beispielsweise die Nutzerfreundlichkeit mit einem Screenreader.

Qualitätsrichtlinien

Diese Qualitätsrichtlinien decken die häufigsten Formen von Täuschung und Manipulation ab. Google kann jedoch auch andere irreführende, hier nicht aufgeführte Praktiken ablehnen. Ist ein bestimmtes irreführendes Verfahren hier nicht aufgelistet, lässt dies nicht den Schluss zu, dass dieses Verfahren von Google toleriert wird. Websiteinhaber, die unsere Richtlinien einhalten, bieten nutzerfreundlichere Websites und werden folglich durch ein besseres Ranking belohnt als diejenigen, die ständig nach Schlupflöchern suchen.

Solltest du der Meinung sein, dass auf einer anderen Website die Qualitätsrichtlinien von Google missachtet werden, sende uns einen Spam-Bericht. Google setzt primär auf die Entwicklung skalierbarer und automatisierter Problemlösungen. Wir verwenden diesen Bericht daher zur weiteren Verbesserung unserer Systeme zur Spamerkennung.

Grundprinzipien

  • Erstelle Seiten in erster Linie für Nutzer, nicht für Suchmaschinen.
  • Täusche die Nutzer nicht.
  • Vermeide Tricks, die das Suchmaschinen-Ranking verbessern sollen. Ein guter Anhaltspunkt ist, ob es dir unangenehm wäre, deine Vorgehensweise einem konkurrierenden Website-Betreiber oder einem Google-Mitarbeiter zu erläutern. Ein weiterer hilfreicher Test besteht darin, sich folgende Fragen zu stellen: „Ist dies für meine Nutzer von Vorteil? Würde ich es auch tun, wenn es keine Suchmaschinen gäbe?“
  • Überlege, was deine Website besonders, wertvoll oder attraktiv macht. Gestalte deine Website so, dass sie sich von anderen in deinem Bereich abhebt.

Konkrete Empfehlungen

Vermeide die folgenden Methoden:

Beachte Best Practices wie die folgenden:

  • Website auf Hacking prüfen und gehackte Inhalte direkt nach ihrem Auftauchen entfernen
  • Nutzergenerierten Spam auf der Website vermeiden und entfernen

Wenn deine Website eine oder mehrere dieser Richtlinien verletzt, ergreift Google möglicherweise manuelle Maßnahmen. Sobald du das Problem behoben hast, kannst du einen Antrag auf erneute Überprüfung der Website stellen.