Aktualisierung der technischen Richtlinien für Webmaster

Montag, 27. Oktober 2014

Vor Kurzem haben wir bekannt gegeben, dass Google Webseiten wie ein typischer moderner Browser darstellt , bei dem CSS und JavaScript aktiviert sind. Heute aktualisieren wir eine unserer technischen Richtlinien für Webmaster entsprechend dieser Mitteilung.
Nach unserer neuen Richtlinie solltet ihr dem Googlebot Zugriff auf die JavaScript-, CSS- und Bilddateien auf euren Seiten geben. Auf diese Weise wird eure Website optimal dargestellt und indexiert.Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.

Aktualisierte Tipps für die optimale Indexierung

Bisher ähnelten Google-Indexierungssysteme alten textbasierten Browsern wie Lynx, und so stand es auch in unseren Richtlinien für Webmaster. Da die Indexierung jetzt auf der Seitendarstellung basiert, sind unsere Indexierungssysteme nun nicht mehr mit einem textbasierten Browser vergleichbar. Stattdessen handelt es sich eher um einen modernen Webbrowser. Dementsprechend solltet ihr Folgendes beachten:
  • Ähnlich wie moderne Browser unterstützt unser Darstellungsmodul unter Umständen nicht alle auf einer Seite verwendeten Technologien.­­ Stellt sicher, dass euer Webdesign den Prinzipien der progressiven Verbesserung entspricht, da unsere Systeme (und zahlreiche Browser) dann verwendbare Inhalte und grundlegende Funktionen besser erkennen können, sollten bestimmte Webdesign-Funktionen noch nicht unterstützt werden.
  • Seiten, die schnell dargestellt werden, sorgen nicht nur dafür, dass Nutzer schneller auf euren Inhalt zugreifen können, sondern machen auch die Indexierung dieser Seiten wesentlich effizienter. Beachtet die Best Practices für die Optimierung der Seitenleistung , insbesondere die folgenden:
  • Stellt sicher, dass euer Server die zusätzliche Last durch die Bereitstellung von JavaScript- und CSS-Dateien an den Googlebot verarbeiten kann.

Tests und Fehlerbehebung

In Verbindung mit der Einführung der darstellungsbasierten Indexierung haben wir auch die Funktion für den Abruf und die Darstellung wie durch Google in den Webmaster-Tools aktualisiert, damit Webmaster sehen können, wie unsere Systeme eine Seite darstellen. Damit lassen sich eine Reihe von Indexierungsproblemen, ungültige robots.txt-Einschränkungen, Weiterleitungen, denen der Googlebot nicht folgen kann, und vieles mehr identifizieren.

Wie immer könnt ihr Kommentare oder Fragen in unserem Forum für Webmaster posten.

Post von Pierre Far , Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem , Search Quality Team)