Darauf achten, dass der Googlebot nicht blockiert wird

Wenn der Zugriff des Googlebots auf eine Website blockiert wird, kann er den Inhalt eventuell nicht mehr richtig crawlen und indexieren. Das wiederum kann das Ranking in den Google-Suchergebnissen beeinträchtigen. Viele Websiteinhaber blockieren den Zugriff des Googlebot auf ihre Website, ohne es zu merken, aber der Googlebot muss auf eine Website zugreifen können, um die Anweisungen in der robots.txt-Datei abzurufen und zu berücksichtigen.

Wenn Google dieses Problem erkennt, teilen wir dir gegebenfalls mit, dass der Googlebot blockiert wird.

Alle blockierten Seiten deiner Website sind im Bericht zur Indexabdeckung aufgeführt. Einzelne Seiten kannst du außerdem mit dem URL-Prüftool testen.