Google-SEO-Sprechstunde vom September 2023

Dies ist das Transkript der Google-SEO-Sprechstunde vom September 2023. Wenn du websitespezifische Hilfe suchst, empfehlen wir dir, deine Frage im Google Search Central-Hilfeforum zu posten.

Indexiert Google fälschlicherweise die www-Version meiner Website?

John: Wan fragt: Indexiert Google fälschlicherweise die www-Version meiner Website? Die richtige Seite muss HTTP sein, gefolgt vom Domainnamen „.my“ ohne „www“.

Hallo Wan. Wir haben uns Ihre Seiten angesehen und festgestellt, dass Ihr Server automatisch eine Weiterleitung von der Version ohne "www" zur www-Version vornimmt und das Element für die kanonische URL "link rel" entsprechend festlegt. Wenn Sie Chrome verwenden, sieht es auf den ersten Blick so aus, als wäre kein „www“ am Anfang. Wenn Sie aber oben im Browser zweimal auf die URL klicken, wird sie zur vollständigen URL mit „www“ erweitert. In der Praxis ist das kein Problem. Für die Google-Suche ist sowohl die Version mit als auch die ohne "www" zulässig. Wow, das ist eine ganze Menge wwws!

Warum gibt es in der Search Console mehr gefilterte Daten als Gesamtdaten?

Gary: Ornella fragt: Warum gibt es in der Search Console mehr gefilterte Daten als Gesamtdaten? Das macht überhaupt keinen Sinn.

Zunächst finde ich diese Frage toll, aber wahrscheinlich aus dem falschen Grund. Die kurze Antwort ist, dass wir intensiv auf sogenannte Bloom-Filter zurückgreifen, weil wir große Datenmengen verarbeiten müssen und Bloom-Filter viel Zeit und Speicherplatz sparen können. Die lange Antwort lautet immer noch, dass wir Bloom-Filter intensiv nutzen, weil wir viele Daten verarbeiten müssen, aber ich möchte noch ein paar Worte zu Bloom-Filtern sagen: Wenn Sie eine große Anzahl von Elementen in einem Satz bearbeiten und ich meine Milliarden von Elementen, wenn nicht gar Billionen, wird das schnelle Suchen extrem schwierig. Hier erweisen sich Bloom-Filter als nützlich: Sie ermöglichen es Ihnen, einen anderen Satz aufzurufen, der einen Hash möglicher Elemente im Hauptsatz enthält, und Sie können die Daten dort suchen. Da Sie zuerst die Hashes abrufen, geht das ziemlich schnell. Hashing geht jedoch manchmal mit Datenverlust einher – unabhängig davon, ob es sich um einen beabsichtigten oder unabsichtlichen Verlust handelt. Dabei handelt es sich um das, was Sie erleben: Weniger zu verarbeitende Daten bedeuten genauere Vorhersagen darüber, ob etwas existiert, ob im Hauptsatz oder nicht. Im Grunde beschleunigen Bloom-Filter die Suche, indem sie vorhersagen, ob etwas in einem Dataset vorhanden ist. Dies geschieht jedoch auf Kosten der Genauigkeit. Je kleiner der Datensatz, desto genauer sind die Vorhersagen.

Warum werden die Seiten meiner Google Sites-Website nicht richtig indexiert?

John: Es wurde eine Frage auf Französisch gestellt, in der ich gefragt wurde, warum die Seiten einer Google Sites-Website nicht richtig indexiert werden.

Es ist großartig, Fragen in anderen Sprachen zu erhalten. Wir gehen noch einen Schritt zurück: Websites, die auf Google Sites erstellt wurden, können und werden in der Google Suche indexiert. Die in Google Sites verwendeten URLs sind jedoch etwas schwer nachzuverfolgen, da die öffentliche Version sich von der URL unterscheiden kann, die angezeigt wird, wenn Sie angemeldet sind. Sie ist zwar technisch indexierbar, aber für SEO-Zwecke nicht ideal und kann für das Tracking in der Search Console komplex sein. Wenn Sie in erster Linie SEO in Betracht ziehen, könnte es sich lohnen, andere Optionen zu erkunden und die Vor- und Nachteile zu prüfen, bevor Sie sich entscheiden. Für die Leistungserfassung in der Search Console können Sie auch Ihren eigenen Domainnamen für die Google Sites-Inhalte verwenden. Wenn Sie Ihren eigenen Domainnamen verwenden, ist die Migration bei Bedarf einfacher und Sie können die Inhaberschaft der gesamten Domain für die Search Console bestätigen.

Gary:Sarabjit fragt: Auf unserer Website gibt es mehrere Schaltflächen. Wenn wir darauf klicken, rufen wir Links zu anderen Seiten ab. Kann Google diese Links crawlen?

Im Allgemeinen klickt der Googlebot nicht auf Schaltflächen.

Verstößt ein „Gastbeitrag“, um einen Backlink zu erhalten, gegen die Richtlinien von Google, wenn ich wertvolle Inhalte schreibe?

John: Brooke fragt: Auf den meisten Websites gibt es heutzutage nur die Option, einen Gastbeitrag zu kaufen, um einen Backlink zu erhalten. Verstößt das gegen die Richtlinien von Google, wenn ich wertvolle Inhalte verfasse?

Hallo Brooke, vielen Dank für deine Frage. Du bist schon auf dem richtigen Weg. Ja. Die Verwendung von Gastbeiträgen als Gegenleistung für Links verstößt gegen unsere Spamrichtlinien. Insbesondere müssen diese Links so qualifiziert sein, dass darauf hingewiesen wird, dass sie die Suchergebnisse nicht beeinflussen. Dazu können Sie für Links die Attribute rel=nofollow oder rel=sponsored verwenden. Werbung für Ihre Website ist in Ordnung, aber die Links sollten wie erwähnt blockiert sein.

Sind Inhalte auf einer E-Commerce-Kategorieseite hilfreich, um das Ranking zu verbessern?

Gary: Brooke fragt: Ist der Inhalt einer E-Commerce-Kategorieseite nützlich, um das Ranking zu verbessern?

Sie können Ihren Seiten beliebige Inhalte hinzufügen. Das sind schließlich Ihre Seiten. Aber verwenden Sie bitte nicht auf allen Kategorieseiten immer wieder diese automatisch generierten, sich wiederholenden Texte niedriger Qualität. Sie wirken einfach nicht gut, selbst auf den durchschnittlichen Nutzer. Wenn Sie Inhalte auf Ihren Seiten benötigen, fügen Sie Inhalte hinzu, die für Nutzer tatsächlich nützlich sein könnten. Fügen Sie aber keine Inhalte hinzu, nur weil die Suche dies möglicherweise erfordert oder weil Sie das glauben. Sehen Sie sich auch unsere E-Commerce-Empfehlungen an.

Führen falsche semantische Tags dazu, dass Google den Inhalt der Website nicht richtig versteht?

John: Führen falsche semantische Tags dazu, dass Google den Inhalt der Website insgesamt nicht richtig versteht und sie daher schlechter zugeordnet werden kann? <hr>-Tags signalisieren einen Themenwechsel, obwohl ich sie möglicherweise nur zu Designzwecken verwende.

Das ist eine interessante Frage. Im Allgemeinen kann die korrekte Verwendung von semantischem HTML dazu beitragen, dass Suchmaschinen den Inhalt einer Seite und ihren Kontext besser verstehen. Wenn Sie beispielsweise Überschriften auf einer Seite mit Markup versehen, ist dies ein klares Zeichen dafür, dass Sie der Ansicht sind, dass Ihr Inhalt zu dieser Überschrift passt. Es ist zwar kein geheimer Weg zu Top-Rankings, aber wenn wir Schwierigkeiten haben, zu verstehen, was Sie im Text meinen, ist eine klare Zusammenfassung in Form von Überschriften hilfreich. Da es etwas Subtiles ist und davon abhängt, wie gut wir die Seite ansonsten verstehen, würde ich es empfehlen, damit alles abgedeckt ist. Der umgekehrte Fall, also von semantisch korrektem zu semantisch falschem HTML-Code, ist auch subtil. Können Suchmaschinen Ihre Seite weiterhin verstehen? Dann würde man wahrscheinlich keinen Unterschied hinsichtlich des Verstehens feststellen. Ist die Bedeutung plötzlich unklar? Dann machen Sie sie doch einfach klarer, vielleicht mit einer semantischen Struktur. Was Ihr spezielles Beispiel für <hr>-Tags angeht, kann ich mir keine Situation vorstellen, in der es aufgrund einer falschen Verwendung einen Unterschied beim Verstehen einer Seite geben würde. Es gibt unendlich viele Möglichkeiten, etwas falsch zu verwenden, aber diejenigen, auf die ein Webdesigner mit <hr>-Tags versehentlich stoßen kann, scheinen mir kein großes Problem zu sein. Das war eine ziemliche lange Erklärung, um zu sagen: „Kommt darauf an“. Gern geschehen.

In der Google Search Console enthält der Bericht für 404-Seiten viele URLs, die anscheinend aus JSON oder JavaScript stammen. Sollten wir dies ignorieren?

Gary: Reza fragt: In der Google Search Console enthält der Bericht für 404-Seiten URLs, die scheinbar versehentlich aus JSON- oder JavaScript-Code erkannt wurden. Sollten wir dies ignorieren?

Sie können diese ignorieren oder einfach einen noindex-HTTP-Header für sie hinzufügen.

John: Dhruv fragt: Darf die Sitemap-Indexdatei Links zu Sitemap-Dateien auf anderen Domains enthalten?

Hallo Dhruv, eine interessante Frage. Die Antwort von Google ist ein definitives Vielleicht. Daher schlage ich vor, eine solche Einrichtung nicht zu verwenden. Sie können in zwei Fällen Sitemaps für URLs einreichen, die sich nicht in derselben Domain befinden. Sie können die Sitemap entweder über die robots.txt-Datei einreichen oder Sie sind bestätigter Inhaber aller Domains in der Search Console. Insbesondere die Inhaberschaft in der Search Console kann subtil und nicht sofort sichtbar sein, wenn Sie die Website analysieren, sodass diese Verbindung leicht vergessen wird. Wenn Sie an Sitemap-Dateien arbeiten und eine solche Konfiguration verwenden möchten, würde ich empfehlen, einen XML-Kommentar zur Sitemap-Datei hinzuzufügen, damit Sie diese Anforderungen kennen und sie in Zukunft nicht zufällig vergessen. Da die Search Console Google-spezifisch ist, sollten Sie auch die entsprechenden Anforderungen anderer Suchmaschinen prüfen.

Wie kann man die Wahrscheinlichkeit verringern, dass Google eigene Meta-Beschreibungen für Websites auswählt?

Gary: Sam Bowers fragt: Wie kann man die Wahrscheinlichkeit verringern, dass Google seine eigenen Meta-Beschreibungen für Websites auswählt?

Gute Frage: Nicht immer, aber normalerweise verwenden unsere Algorithmen Ihre Meta-Beschreibung, wenn die Seite nicht viel Content enthält oder wenn die Meta-Beschreibung für die Suchanfrage eines Nutzers relevanter ist als der eigentliche Content der Seite. Weitere Informationen zu Beschreibungen und Snippets

Gibt es eine Möglichkeit, für Suchmaschinen-Bots festzulegen, dass bestimmte Abschnitte auf einer Seite nicht gecrawlt werden sollen?

John: Gibt es eine Möglichkeit, für Suchmaschinen-Bots festzulegen, dass bestimmte Bereiche auf einer Seite nicht gecrawlt werden. Andernfalls darf die Seite gecrawlt und indexiert werden. Weiterhin wird erwähnt, dass viele Duplikate in „Megamenüs“ vorkommen, die blockiert werden sollen.

Ja, Sie können die Indexierung von Teilen einer Seite verhindern. Besonders bei allgemeinen Seitenelementen wie Überschriften, Menüs, Seitenleisten und Fußzeilen ist es jedoch nicht erforderlich, die Indexierung zu blockieren. Suchmaschinen gehen so mit dem Web um, wie es ist, und manchmal gibt es riesige Megamenüs oder Fußzeilen. Das ist OK. Für andere Inhalte auf einer Seite können Sie entweder einen iFrame mit einer Quelle verwenden, die durch die robots.txt-Datei als nicht zugelassen definiert ist, oder Content mit JavaScript laden, das in ähnlicher Weise von der robots.txt-Datei blockiert wird. Wenn du nur verhindern möchtest, dass etwas in einem Snippet angezeigt wird, ist das Attribut data-nosnippet eine gute Möglichkeit, dies zu tun. Es ist jedoch nicht erforderlich, es nur für das Ausblenden eines Menüs so kompliziert zu machen. Unnötige Komplexität birgt das Risiko, dass Probleme unerwartet auftreten. Daher empfiehlt es sich, dies auf Fälle zu beschränken, in denen es wirklich erforderlich ist.

Empfehlen Sie unendliches Scrollen auf Webseiten? Gibt es Auswirkungen auf organische Zugriffe oder den Googlebot?

Gary: Jeethu fragt: Empfehlen Sie unendliches Scrollen auf Webseiten? Hat es Auswirkungen auf organische Zugriffe oder den Googlebot, wenn ich diese Funktion hinzufüge?

Das hängt davon ab, wie Sie unendliches Scrollen implementieren. Wenn jeder Teil oder jede virtuelle Seite auch über eine eindeutige URL zugänglich und auffindbar ist, sollte es im Allgemeinen in Ordnung sein, unendliches Scrollen zu ermöglichen.

John: Ryan fragt: Wenn eine Startseite Links enthält, die im mobilen Web angezeigt, aber auf dem Desktop hinter einer JavaScript-Schaltfläche verborgen und nicht im HTML enthalten sind, solange diese nicht angeklickt wird, werden die Links dann von Google herabgestuft?

Hallo Ryan. Bei der Mobile First-Indexierung verwenden wir die mobile Version einer Seite als Grundlage für die Indexierung und Suche nach Links. Wenn die mobile Version alle Inhalte enthält, sind Sie startklar. Es überrascht mich, dass es auf dem Computer weniger Inhalte gibt, aber ich denke, es gibt Gründe dafür.

Indexiert Google PDF-Dateien, die in Google Drive gespeichert sind und nicht auf einer Website gehostet werden?

Gary:Anonym fragt: Indexiert Google PDF-Dateien, die in Google Drive gespeichert sind und nicht auf einer Website gehostet werden? Wenn ja, wie lange dauert das?

Ja, Google kann öffentliche PDF-Dateien indexieren, die auf Google Drive gehostet werden. Es ist nur eine andere URL auf einer Website. Wie bei allen URLs kann es einige Sekunden bis zu einer Ewigkeit dauern, bis diese PDFs indexiert werden.

Wie crawlt Google Scrolljacking-Inhalte und wirkt sich dieser Ansatz der Nutzererfahrung auf das Ranking aus?

John:Matt hat eine Frage gestellt, in der steht: „Scrolljacking“ wird im Web immer beliebter. Im Allgemeinen wird die Nutzererfahrung als schlecht eingestuft. Wie crawlt Google diese Inhalte und wirkt sich diese Herangehensweise an die Nutzererfahrung auf das Ranking aus? Außerdem hat er einen Link zu einem Artikel über Scrolljacking hinzugefügt, auf den ich im Transkript verlinke.

Hallo Matt, das ist eine interessante Frage. Mir war nicht klar, dass das Scrolljacking heißt. Vielen Dank für den Link. Ich glaube nicht, dass wir diese Einrichtung als missbräuchlich ansehen würden, daher hat es keine direkten Auswirkungen. Allerdings können technische Effekte zweiter Ordnung auftreten. Google rendert zum Beispiel Seiten, indem es sie auf einem theoretisch sehr großen Mobilgerät lädt. Wenn die Inhalte auf der Seite dort nicht angezeigt werden, weil es Betrügereien bezüglich Scroll-Ereignissen gibt, gehen unsere Systeme möglicherweise davon aus, dass die Inhalte nicht korrekt sichtbar sind. Kurz gesagt ist dies eher ein potenzielles Rendering-Problem als ein Qualitätsproblem.

Warum ist die URL indexiert, obwohl sie durch eine robots.txt-Datei in meiner Google Search Console blockiert wird?

Gary: Deniz Can Aral fragt: Warum ist die URL indexiert, obwohl sie durch eine robots.txt-Datei in meiner Google Search Console blockiert wird?

Diese Frage wird relativ häufig gestellt: Google kann die URL indexieren, aber nur die URL, nicht den Inhalt, auch wenn diese URL für das Crawling über robots.txt blockiert ist. Die Anzahl solcher URLs in unserem Index ist jedoch gering, da dies nur dann geschieht, wenn die blockierte URL im Internet sehr begehrt ist. Sollte dies problematisch sein, lassen Sie das Crawlen der URL zu und verwenden Sie eine noindex-Regel in den HTTP-Headern oder ein <meta>-Tag.

Wir haben unerwünschte KI-Inhalte. Wie kann ich das Problem beheben oder die Inhalte von meiner Website entfernen?

John: Sonia fragt: Wir haben einige Contentersteller eingestellt, aber sie haben uns KI-Inhalte zur Verfügung gestellt. Wie kann ich das ändern? Sollen nur KI-Inhalte gelöscht werden? Sollen sie durch neuen Inhalt ersetzt werden? Soll die Website verworfen und eine neue Website mit einer neuen URL erstellt werden? Was würdest du empfehlen?

Ich weiß nicht, was ich sagen soll, Sonia. Sie haben anscheinend einfach Inhalte von externen Autoren veröffentlicht, ohne diese zu überprüfen? Das klingt nach einer schlechten Idee, auch ohne den Aspekt der KI-Inhalte. Nun, unabhängig von den Gründen und der Quelle, wenn Sie minderwertige Inhalte auf Ihrer Website veröffentlicht haben und nicht mehr damit in Verbindung gebracht werden möchten, können Sie die Inhalte entweder entfernen oder korrigieren. Ich empfehle Ihnen, einen Blick auf das große Ganze zu werfen: Fehlen solche Inhalte im Web und könnte Ihre Website insgesamt einen erheblichen Wert für die Nutzer haben? Oder handelt es sich um bekannte Inhalte, die nur wiederholt werden und bereits im Rest des Webs vorhanden sind? Oder stellen Sie sich das so vor: Wenn Ihr Content im Wesentlichen mit dem identisch ist, was andere bereits haben, warum sollten Suchmaschinen ihn dann sogar indexieren, geschweige denn, dass er in den Suchergebnissen weit oben angezeigt wird? Um eine gute Website zu erstellen, braucht es natürlich mehr als nur gute Artikel, nämlich eine klare Strategie und Prozesse, die dafür sorgen, dass alle an Ihren Zielen dran sind.

Die indexierten URLs sind von einem Tag zum nächsten angestiegen. Was sind die Gründe?

Gary: Lorenzo fragt: Die indexierten URLs sind von einem Tag zum anderen angestiegen. Was sind die Gründe?

Vielleicht haben wir mehr Festplatten, Speicherplatz frei oder wir haben gerade die neuen URLs entdeckt. Das ist schwer zu sagen. Machen wie schon mal den Sekt auf. Grund zum Feiern.

Kann Google mehrere Dateigrößen in einer Favicon-Datei verwenden?

John: Dave fragt: Kann Google mehrere Dateigrößen in einer Favicon-Datei verwenden? Versteht Google mehrere Symbole, die mit dem Attribut „sizes“ gekennzeichnet sind, und kann ein geeignetes Symbol ausgewählt werden?

Hallo Dave. Technisch gesehen ermöglicht das ICO-Dateiformat die Verwendung von Dateien in verschiedenen Auflösungen. Da jedoch immer mehr verschiedene Größen verwendet werden und das auch für verschiedene Zwecke, ist es meiner Meinung nach besser, die Größen und Dateien einzeln anzugeben. Google unterstützt in HTML mehrere Favicon-Größen. Wenn Sie also bestimmte Größen angeben möchten, verwenden Sie diese.

Beurteilt Google Teile einer Website anders, wenn ein anderes CMS verwendet wird?

Gary: Vivienne fragt: Beurteilt Google Teile einer Website anders, wenn ein anderes CMS verwendet wird?

Nein.

In der Google Suche wird auf unserer Website ein PDF-Download als Hauptseite angezeigt. Kann das Suchergebnis geändert werden?

John:Anna möchte wissen: Das Google-Suchergebnis der Website für unsere Stiftung muss noch einmal gecrawlt werden. Als Hauptseite wird ein PDF-Download angezeigt. Unsere Website ist eine niederländische Menschenrechtsstiftung. Kann das Suchergebnis geändert werden?

Hallo Anna, ich habe mir deine Website angesehen. Andere Seiten werden anstelle deiner Startseite angezeigt, weil sie ein noindex-Robots-<meta>-Tag enthält. Dieses <meta>-Tag verhindert die Indexierung dieser Seite. Nach dem Entfernen sollte das Problem schnell gelöst sein.

Wenn ich in der Google Suche nach meiner Website suche, ist das erste Ergebnis eine Produktseite und nicht meine Begrüßungsseite. Warum?

John: Julien fragt: Wenn ich in der Google Suche nach meiner Website suche, ist das erste Ergebnis eine Produktseite und nicht meine Begrüßungsseite. Warum? Die Produktseite ist nicht einmal mit dem SEO vorbereitet, aber meine Begrüßungsseite schon.

Hallo Julien, Google ermittelt anhand verschiedener Faktoren, welche Seiten für Nutzer bei bestimmten Suchanfragen am relevantesten sind. Eines der Konzepte beim Abruf von Informationen basiert auf der wahrgenommenen Nutzerabsicht. Kurz gesagt: Was wollten sie tun, als sie danach gesucht haben? Suchen sie nach weiteren Informationen zu einem Produkt oder Unternehmen? Oder möchten sie das Produkt jetzt kaufen? Auch kann sich dies im Laufe der Zeit für dieselbe Abfrage ändern. Kurz gesagt bedeutet das: Auch wenn eine Seite nicht für SEO vorbereitet ist, kann sie dennoch in der Suche angezeigt werden, sofern die Systeme sie zu diesem Zeitpunkt für relevant halten. In der Praxis empfehle ich Ihnen, zu verstehen, wie Nutzer auf Ihre Website gelangen, und zu versuchen, ihre Anforderungen angemessen zu erfüllen, damit sie unabhängig davon, wo sie letztlich auftauchen, eine gute Erfahrung haben können.

Ich habe eine Search Console-Benachrichtigung zur Behebung von INP-Problemen erhalten. Wie berechnen Sie dies und was ist die einfachste Lösung?

John: Alejandro hat eine Frage gestellt: Hallo John und Google-Team, heute habe ich eine Search Console-Benachrichtigung zur Behebung von INP-Problemen erhalten. Wie werden diese Daten berechnet und wie lässt sich das am einfachsten korrigieren?

Ich kann Ihnen hier keine vollständige Antwort geben, aber auf der web.dev-Website finden Sie eine ganze Reihe von Dokumentationen zu Interaction to Next Paint (kurz INP). Wenn Sie die Bewertungen Ihrer Website verbessern möchten, sehen Sie sich diese Seite an. Die INP ist noch nicht Teil der Core Web Vitals. Die Core Web Vitals sind nur einer von vielen Faktoren, die bei der Nutzerfreundlichkeit von Seiten und hilfreichen Inhaltssystemen eine Rolle spielen. Eine Verbesserung des INP kann zwar die Nutzererfahrung positiv beeinflussen, ich würde aber nicht erwarten, dass sich dadurch das Suchranking ändert.

Wie entferne ich 30.000 URLs von einem Hacking durch japanische Keywords aus der Google Search Console?

John: Heather fragt: Wie kann man 30.000 URLs von einem Hacking durch japanische Keywords aus der GSC entfernen?

Hallo Heather, es tut mir leid, dass Sie gehackt wurden. Ich hoffe, Sie konnten das Problem in der Zwischenzeit beheben. Wir haben jedoch einige Inhalte zu dieser Art von Hacking auf der web.dev-Website. Ich verlinke es aus dem Transkript. Beachten Sie, dass dieses Hacking zum Cloaking der gehackten Inhalte für Google führt. Sie benötigen daher möglicherweise Hilfe, um zu überprüfen, ob sie vollständig entfernt wurden. Was die Suchergebnisse angeht, empfehle ich angesichts der Anzahl der betroffenen Seiten, dass Sie sich auf die besser sichtbaren Seiten konzentrieren und diese manuell korrigieren, indem Sie sie entweder entfernen oder neu indexieren. Der Rest verschwindet dann von allein. Auch wenn ihr gezielt nach den gehackten Inhalten sucht, findet ihr sie über eine Weile. Der durchschnittliche Nutzer würde jedoch nach eurer Website suchen. Ziel sollte es sein, diese Suchergebnisse in Ordnung zu bringen.

Warum werden meine Seiten aus dem Index entfernt, nachdem sie zur Indexierung in der Search Console eingereicht wurden? Das habe ich jetzt schon mehrmals gemacht.

John:Grace fragt: Warum werden Seiten aus dem Index entfernt, nachdem sie zur Indexierung in der Search Console eingereicht wurden? Das habe ich jetzt schon mehrmals gemacht.

Hallo Grace. Ich weiß nicht genau, weil ich nicht weiß, um welche Seiten es geht. Dies deutet jedoch darauf hin, dass unsere Systeme nicht vom Wert Ihrer Website und ihres Contents überzeugt sind. Wir indexieren fast nie alle Seiten einer Website, daher ist dies teilweise auch zu erwarten. Die Indexierung kann einmalig beantragt werden, aber unsere Systeme werden den Inhalt und die Website mit der Zeit neu bewerten und diese Seiten vielleicht wieder entfernen. Die beste Vorgehensweise besteht darin, nicht ständig zu versuchen, diese Seiten online zu veröffentlichen, sondern sie so zu gestalten, dass unsere Systeme von der Gesamtqualität Ihrer Website, dem einzigartigen Wert, den sie dem Web bietet, und der Übereinstimmung mit dem, was Nutzer wirklich suchen, überzeugt sind. Dann indexieren wir sie unaufgefordert.