Häufig gestellte Fragen zu JavaScript und Links

Dienstag, 26. Mai 2020

Wir erhalten täglich viele Fragen – in unseren YouTube-Sprechstunden, auf Konferenzen, im Hilfeforum und auf Twitter. Oft geht es dabei um Links, vor allem um Links, die über JavaScript generiert werden.

In unserer Videoreihe Webmaster Conference Lightning Talks haben wir kürzlich die am häufigsten gestellten Fragen zu Links und JavaScript beantwortet:

Bei der Live-Premiere gab es auch eine Fragerunde mit einigen zusätzlichen Fragen aus der Community. Wir haben uns nun dazu entschlossen, diese Fragen und unsere Antworten sowie einige andere FAQs rund um das Thema „Links und JavaScript“ zu veröffentlichen.

Der Googlebot parst den HTML-Code einer Seite und sucht nach Links, um die URLs von verwandten Seiten zu erkennen, die gecrawlt werden sollen. Damit er diese Seiten erkennt, müsst ihr eure Links als HTML-Links definieren. Eine Beschreibung findet ihr in den Richtlinien für Webmaster unter Links für Crawler zugänglich machen.

Welche Arten von URLs kann der Googlebot verarbeiten?

Der Googlebot extrahiert die URLs aus dem href-Attribut eurer Links und stellt sie dann für das Crawling in eine Warteschlange. Die URL muss also auflösbar sein – oder einfacher ausgedrückt: Die URL muss funktionieren, wenn sie in die Adressleiste eines Browsers eingegeben wird. Weitere Informationen findet ihr in den Richtlinien unter Links für Crawler zugänglich machen.

Ja, sofern diese Links die oben und in unseren Richtlinien für Webmaster erläuterten Kriterien erfüllen.

Wenn der Googlebot eine Seite rendert, führt er JavaScript aus und erkennt dann auch die in JavaScript generierten Links. Übrigens: Die Linkerkennung kann zweimal stattfinden – vor und nach der Ausführung von JavaScript. Wenn ihr eure Links also schon in die erste Serverantwort einbindet, kann der Googlebot eure Links etwas schneller erkennen.

Versteht der Googlebot Fragment-URLs?

Fragment-URLs, auch „Hash-URLs“ genannt, sind technisch in Ordnung, doch eventuell funktionieren sie mit dem Googlebot nicht so, wie man es erwarten könnte.

Mit Fragmenten soll ein bestimmter Inhalt in der Seite adressiert werden. Wenn sie zu diesem Zweck genutzt werden, ist überhaupt nichts gegen sie einzuwenden.

Manchmal entscheiden sich Entwickler allerdings dazu, Fragmente mit JavaScript zu verwenden, um andere Inhalte zu laden, die ohne das Fragment nicht auf der Seite vorhanden wären. Hierfür sind Fragmente aber nicht gedacht und der Googlebot kann sie dann nicht auswerten. Im JavaScript-SEO-Leitfaden findet ihr Informationen, wie ihr stattdessen die History API verwenden könnt.

Verwendet der Googlebot noch das AJAX-Crawling-Schema?

Das AJAX-Crawling-Schema wurde schon vor längerer Zeit eingestellt. Nutzt es bitte nicht für eure Seiten.

Wir empfehlen euch, stattdessen die History API zu verwenden und eure Web-Apps zu URLs zu migrieren, die zum Laden anderer Inhalte keine Fragmente nutzen.

Nicht verpassen: Weitere Webmaster Conference Lightning Talks

Dieser Beitrag wurde durch die erste Folge der Webmaster Conference Lightning Talks inspiriert. Damit ihr auch die nächsten Videos in dieser Reihe nicht verpasst, solltet ihr unseren YouTube-Kanal abonnieren. Es lohnt sich. Wärmstens ans Herz legen möchten wir euch auch die Premieren auf YouTube – wenn ihr daran teilnehmt, könnt ihr beim Livechat und der Fragerunde für jede Folge mitmachen.

Interesse an weiteren Webmaster Conference Lightning Talks? Dann seht euch das Video zu Monetarisierungsrichtlinien von Google an und abonniert unseren Kanal. So könnt ihr euch auch gleich das nächste Video ansehen, sobald es verfügbar wird.

Seid bei den nächsten Videopremieren dabei und tauscht euch in den YouTube-Kommentaren mit der Community aus.