Google SEO office hours de setembro de 2023

Esta é a transcrição da edição de setembro de 2023 do Google SEO Office Hours. Para receber ajuda específica do site, recomendamos que você poste sua dúvida na Comunidade de Ajuda da Central da Pesquisa Google.

O Google está indexando incorretamente a versão www do meu site?

John: Wan pergunta: o Google indexa incorretamente a versão www do meu site. A página correta é HTTP, depois o nome do domínio .my sem o www.

Olá, Wan! Analisei suas páginas e parece que seu servidor está redirecionando automaticamente da versão sem www para a versão com www, definindo corretamente o elemento canônico do link. À primeira vista, se você estiver usando o Google Chrome, talvez pareça que não tem um www na frente, mas se você clicar duas vezes no URL na parte superior do navegador, ele se expandirá para mostrar o URL completo, com www. Na prática, não há problemas. As versões www e não www de um site são compatíveis com a Pesquisa Google. Nossa, são muitos wwws!

Por que os dados filtrados são mais numerosos do que os dados gerais no Search Console?

Gary: Ornella está perguntando: por que os dados filtrados são mais numerosos do que os dados gerais no Search Console? Isso não faz sentido.

Em primeiro lugar, eu amo essa pergunta, mas provavelmente pelo motivo errado. A resposta curta é que fazemos uso intenso de algo chamado filtros Bloom, porque precisamos lidar com muitos dados, e esses filtros podem economizar muito tempo e armazenamento. A resposta longa ainda é que fazemos uso intenso de filtros Bloom porque precisamos lidar com muitos dados, mas também quero falar um pouco sobre os filtros Bloom: quando você lida com um grande número de itens em um conjunto, como bilhões ou trilhões de itens, procurar coisas rapidamente fica muito difícil. É aqui que os filtros Bloom são úteis: eles permitem que você consulte um conjunto diferente que contenha uma hash de possíveis itens no conjunto principal e pesquise os dados lá. Como você procura hashes primeiro, é bem rápido. No entanto, às vezes, isso gera perdas de dados, seja de propósito ou não, e você está observando esses dados ausentes: menos dados para processar geram previsões mais precisas da existência ou não de algo no conjunto principal. Basicamente, os filtros Bloom aceleram as pesquisas ao prever se algo existe em um conjunto de dados, mas reduzem a precisão. Quanto menor o conjunto de dados, mais precisas são as previsões.

Por que as páginas do meu site do Google Sites não estão sendo indexadas corretamente?

John: uma pergunta enviada em francês basicamente pergunta por que as páginas do meu site do Google Sites não estão sendo indexadas corretamente.

É ótimo receber perguntas em outros idiomas. Dando um passo para trás, os sites criados no Google Sites podem e são indexados na Pesquisa Google. No entanto, os URLs usados no Google Sites são um pouco difíceis de rastrear, porque a versão pública pode ser diferente do URL que você vê ao fazer login. Embora sejam tecnicamente indexáveis, isso não é ideal para fins de SEO e pode ser complexo para o rastreamento no Search Console. Se o SEO for sua principal consideração, pode ser útil analisar outras opções e verificar os prós e contras antes de assumir um compromisso. Para acompanhar o desempenho no Search Console, também é possível usar seu próprio nome de domínio para o conteúdo do Google Sites. O uso do seu próprio nome de domínio facilita a migração, caso você opte por isso, e permite verificar a propriedade de todo o domínio para o Search Console.

Gary: Sarabjit está perguntando: nosso site tem vários botões que direcionam a links para outras páginas ao serem clicados. O Google poderá rastrear esses links?

De modo geral, o Googlebot não clica em botões.

O uso de "postagem de convidado" (para ganhar um backlink) viola as diretrizes do Google se eu estiver escrevendo conteúdo de valor?

John: Brooke pergunta: a maioria dos sites só oferece a opção de comprar uma "postagem de convidado" (para ganhar um backlink) hoje em dia. Se eu escrevo conteúdo valioso, isso vai contra as diretrizes do Google?

Olá, Brooke. Agradecemos por enviar sua pergunta. Parece que você já está no caminho certo. Sim, o uso de postagens de convidados para links é contra nossas políticas de spam. Especificamente, é importante que esses links sejam qualificados de uma forma que indique que eles não afetam os resultados da pesquisa. Você pode fazer isso com os atributos rel=nofollow ou rel=sponsored nos links. Não há problema em usar publicidade para promover seu site, mas os links devem ser bloqueados, conforme mencionado.

O conteúdo em uma página de categoria de e-commerce é útil para melhorar as classificações gerais?

Gary: Brooke pergunta: o conteúdo em uma página de categoria de e-commerce é útil para melhorar as classificações gerais?

Você pode adicionar o conteúdo que quiser às suas páginas. Afinal, elas são suas. No entanto, não reproduza essas mensagens de texto repetidas e de baixa qualidade geradas automaticamente várias vezes em todas as páginas de categoria. Isso gera uma aparência negativa, mesmo para uma pessoa comum. Se você precisar de material para suas páginas, adicione conteúdo que as pessoas achem útil, e não apenas porque a pesquisa exige isso ou porque você acredita que ela funciona assim. Confira também nossas recomendações de comércio eletrônico.

As tags semânticas incorretas fazem com que o Google entenda menos o conteúdo do site?

John: as tags semânticas incorretas fazem com que o Google tenha um entendimento geral deficiente do conteúdo do site e, portanto, tenha menos capacidade de atribuí-lo a uma ramificação? Especificamente, as tags <hr> indicam uma mudança de tema, mas elas só podem ser usadas para fins de design.

Essa é uma questão interessante. Em geral, o uso correto do HTML semântico pode ajudar os mecanismos de pesquisa a entender melhor o conteúdo e o contexto de uma página. Por exemplo, marcar títulos em uma página é um sinal claro de que seu conteúdo se encaixa nesse título. Isso não é um caminho secreto para a classificação número um, mas, se não conseguirmos entender o que você quer dizer no texto, incluir um resumo claro na forma de títulos já ajuda. Como é algo sutil que depende de quão bem entendemos a página, considero isso uma boa prática para deixar tudo em ordem. O inverso disso, passar de HTML semanticamente correto para semanticamente incorreto, também é sutil. Os mecanismos de pesquisa ainda conseguem entender sua página? Então é provável que você não note a diferença em como eles a entendem. O sentido não está claro? Então esclareça um pouco, talvez com alguma estrutura semântica. No seu exemplo específico de tags <hr>, não consigo pensar em uma situação em que haja diferença no entendimento de uma página devido ao uso incorreto dela. Há infinitas maneiras de usar algo de forma incorreta, mas as que um web designer pode encontrar acidentalmente com tags <hr> parecem bastante seguras. Acho que tudo se resume a "depende". De nada.

No Google Search Console, o relatório de páginas 404 tem muitos URLs que parecem ser de JSON ou JavaScript. Devemos ignorar?

Gary: Reza está perguntando: no Google Search Console, o relatório das páginas 404 está cheio de URLs que parecem ter sido coletados por engano de algum código JSON ou JavaScript. Devemos ignorar isso?

Você pode ignorar ou apenas adicionar um cabeçalho HTTP noindex neles.

John: Dhruv pergunta: o arquivo de índice de sitemaps pode ter links para arquivos de sitemaps em outros domínios?

Olá, Dhruv, pergunta interessante. A resposta do Google é: talvez. Por isso, minha sugestão é não usar uma configuração como essa. É possível enviar sitemaps de URLs que não estão no mesmo domínio em duas situações. Você pode enviar o sitemap pelo robots.txt ou verificar a propriedade de todos os domínios no Search Console. Especialmente a propriedade do Search Console pode ser sutil e não estar imediatamente visível quando você analisa o site, então é fácil esquecer essa conexão. Se você está trabalhando em arquivos de sitemap e decide que quer usar uma configuração como esta, minha dica seria adicionar um comentário em XML ao arquivo de sitemap para que você se lembre desses requisitos e não crie problemas acidentalmente no futuro. Como o Search Console é específico do Google, verifique também os requisitos relacionados de outros mecanismos de pesquisa.

Como reduzir a probabilidade de o Google escolher as próprias metadescrições de sites?

Gary: Sam Bowers pergunta: como reduzir a probabilidade de o Google escolher as próprias metadescrições de sites?

Boa pergunta: nem sempre, mas geralmente nossos algoritmos usam a metadescrição quando não há muito conteúdo na página ou quando ela é mais relevante para a consulta do usuário do que o conteúdo real da página. Saiba mais sobre descrições e snippets.

Existe uma forma de especificar para os bots de mecanismos de pesquisa não rastrearem determinadas seções de uma página?

John: há uma maneira de especificar para os bots de mecanismos de pesquisa não rastrearem determinadas seções de uma página? Caso contrário, a página pode ser rastreada e indexada? A pergunta também menciona que há muita duplicação em "megamenus" e gostaria de bloqueá-los.

Sim, há ações que podem ser realizadas para impedir a indexação de partes de uma página. No entanto, principalmente para elementos comuns da página, como cabeçalhos, menus, barras laterais e rodapés, não é necessário bloquear a indexação. Mecanismos de pesquisa lidam com a Web como ela é e, às vezes, há megamenus ou rodapés gigantescos, isso não é um problema. Para outras partes do conteúdo de uma página, use um iframe com uma origem proibida pelo robots.txt ou insira conteúdo com JavaScript que também está bloqueado pelo robots.txt. Se você só quiser evitar que algo seja mostrado em um snippet, uma boa maneira de fazer isso é usar o atributo data-nosnippet. Lembre-se de que não é preciso adicionar algo tão complexo apenas para ocultar um menu. Uma complexidade desnecessária traz o risco de falhas inesperadas. Por isso, é bom limitar isso aos casos em que é realmente necessário.

É recomendável usar a rolagem infinita em páginas da Web? Há alguma implicação para o tráfego orgânico ou o Googlebot?

Gary: Jeethu está perguntando: você recomenda a rolagem infinita em páginas da Web? Se eu adicionar esse recurso, haverá implicações no tráfego orgânico ou no GoogleBot?

Isso depende de como você implementa a rolagem infinita. Se cada parte ou página virtual também puder ser acessada e encontrada por meio de um URL exclusivo, geralmente não há problema em ter rolagem infinita

John: Ryan pergunta: se uma página inicial tiver links exibidos na Web para dispositivos móveis, mas ocultos para computadores por um botão JavaScript e não incluídos no HTML, a menos que sejam clicados, o Google vai desvalorizá-los?

Olá, Ryan. Com a indexação que prioriza dispositivos móveis, usamos a versão para dispositivos móveis de uma página como base para a indexação e para a descoberta de links. Se a versão para dispositivos móveis tiver o conteúdo completo, está tudo certo. É surpreendente que você tenha menos conteúdo no computador, mas acho que você tem motivos para isso.

O Google indexa arquivos PDF salvos no Google Drive que não estejam hospedados em um site?

Gary: anônimo está perguntando: o Google indexa arquivos PDF salvos no Google Drive que não estejam hospedados em um site? Se sim, quanto tempo leva?

Sim, o Google pode indexar arquivos PDF públicos hospedados no Google Drive: eles são apenas URLs em um site. Como acontece com qualquer URL, a indexação desses PDFs pode variar de alguns segundos até nunca.

Como o Google rastreia o conteúdo de Scrolljacking? Essa experiência do usuário vai afetar as classificações?

John: Matt enviou uma pergunta dizendo: o "Scrolljacking" está crescendo em popularidade na Web. Geralmente, isso é visto como uma experiência ruim para o usuário. Como o Google rastreia esse conteúdo e como essa abordagem de UX afeta as classificações? Ele também adicionou o link de um artigo sobre scrolljacking, que vou incluir na transcrição.

Oi, Matt. Essa é uma pergunta interessante. Não sabia que isso se chama "Scrolljacking". Agradeço o link. Não acho que veríamos essa configuração como abusiva, portanto, não haverá efeito direto. No entanto, talvez você note efeitos técnicos de segunda ordem. Por exemplo, o Google renderiza páginas carregando-as em um dispositivo móvel teoricamente muito grande. Se a página não exibir o conteúdo devido a problemas com eventos de rolagem, nossos sistemas podem presumir que o conteúdo não está visível corretamente. Resumindo, seria mais um problema de renderização do que de qualidade.

Por que o URL está indexado, mas bloqueado pelo robots.txt no meu Google Search Console?

Gary: Deniz Can Aral está perguntando: por que a indexação foi feita, mas o robots.txt está bloqueado pelo arquivo robots.txt no Google Search Console?

Essa é uma pergunta relativamente comum: o Google consegue indexar o URL e somente o URL, não o conteúdo, mesmo que o URL esteja bloqueado para rastreamento pelo robots.txt. No entanto, o número desses URLs em nosso índice é pequeno, porque isso acontece somente se o URL bloqueado for muito procurado na Internet. Se isso for um problema para você, permita o rastreamento do URL e use uma regra noindex nos cabeçalhos HTTP ou uma tag <meta>.

Temos conteúdo indesejado de IA. Como posso corrigir ou remover esse conteúdo do meu site?

John: Sonia pergunta: contratamos alguns redatores, mas eles nos deram conteúdo de IA. Como corrigir isso? É só excluir o conteúdo de IA? Substituir por novo conteúdo? Excluir e criar um site com um novo URL? O que devo fazer?

Não sei o que dizer, Sonia. Parece que você apenas publicou conteúdo de autores externos sem análise? Essa parece uma má ideia, mesmo sem o aspecto do conteúdo de IA. Independentemente dos motivos e da fonte, se você publicou conteúdo de baixa qualidade no seu site e não quer mais ter associação com ele, remova ou corrija o conteúdo. Sugiro analisar o quadro geral: há algum conteúdo como este faltando na Web e seu site pode agregar valor significativo para os usuários em geral? Ou trata-se apenas de um conteúdo reutilizado que já existe no restante da Web? Ou pense desta forma, se seu conteúdo é essencialmente o mesmo que outros já têm, por que os mecanismos de pesquisa deveriam indexá-lo e muito menos mostrá-lo nos resultados de pesquisa? E, é claro, para criar um site excelente, é preciso mais do que bons artigos: é preciso uma estratégia clara e processos que garantam que todos estejam de acordo com seus objetivos.

Tivemos um pico nos URLs indexados de um dia para o outro. Quais são os motivos?

Gary: Lorenzo está perguntando: "Tivemos um pico nos URLs indexados de um dia para o outro. Quais são os motivos?

Talvez tenhamos mais discos rígidos, liberamos mais espaço ou apenas descobrimos esses novos URLs. É difícil dizer. De qualquer forma, é hora de abrir o espumante! Comemore!

O Google pode usar vários tamanhos em um arquivo de favicon?

John: Dave pergunta: o Google pode usar vários tamanhos em um arquivo de favicon? Ele entende que há vários ícones marcados com o atributo de tamanhos e escolhe um adequado?

Olá, Dave. Tecnicamente, o formato de arquivo .ico permite fornecer arquivos em várias resoluções. No entanto, com o aumento no número de tamanhos usados para várias finalidades, acredito que geralmente é melhor especificar os tamanhos e arquivos individualmente. O Google é compatível com vários tamanhos de favicon em HTML. Portanto, se houver tamanhos específicos que você queira fornecer, é recomendável usar essa opção.

O Google julga partes de um site de maneira diferente quando elas têm outro CMS (sistema de gerenciamento de conteúdo)?

Gary: Vivienne pergunta: o Google julga partes de um site de maneira diferente quando elas têm outro CMS (sistema de gerenciamento de conteúdo)?

Não.

Na Pesquisa Google, nosso site mostra um download de PDF como página principal. O resultado da pesquisa pode ser alterado?

John: Anna pergunta: o resultado da pesquisa do Google do nosso site precisa ser rastreado novamente, ele exibe um download de PDF como página principal. Nosso site é uma fundação holandesa de direitos humanos. O resultado da pesquisa pode ser alterado?

Olá, Anna. Analisamos seu site e o motivo pelo qual outras páginas estão sendo exibidas em vez da página inicial é que ela tem uma tag noindex robots <meta>. Essa tag <meta> impedirá a indexação dessa página. Depois de removida, tudo deve voltar ao normal.

Quando pesquiso meu site na Pesquisa Google, o primeiro resultado é uma página de produto, não a de boas-vindas. Por quê?

John: Julien pergunta: quando pesquiso meu site na Pesquisa Google, o primeiro resultado é uma página de produto, não a página de boas-vindas. Por que isso acontece? A página do produto não está preparada com SEO, mas a página de boas-vindas está.

Olá, Julien. O Google usa vários fatores para tentar descobrir quais páginas podem ser as mais relevantes para os usuários em consultas específicas. Na recuperação de informações, um dos conceitos é baseado na intenção do usuário percebida. Resumindo: o que eles estavam tentando fazer quando pesquisaram isso? Eles estão procurando mais informações sobre um produto ou empresa? Ou estão pensando em comprar esse produto agora? Isso também pode mudar com o tempo para a mesma consulta. Em resumo, isso significa que, mesmo que uma página não esteja preparada para SEO, ela ainda pode aparecer na pesquisa se os sistemas considerarem que ela é relevante no momento. Na prática, minha recomendação é entender as diferentes maneiras como os usuários podem chegar ao seu site e tentar atender às necessidades deles de forma adequada, para que, independentemente do destino, eles tenham uma boa experiência.

Recebi um alerta do Search Console para melhorar os problemas de INP. Como isso é calculado e qual é a solução mais fácil?

John: Alejandro enviou uma pergunta: olá, John e equipe do Google. Hoje recebi um alerta do Search Console sobre melhoria de problemas de INP. Como esses dados são calculados e qual é a maneira mais fácil de corrigi-los?

Não tenho uma resposta completa, mas há bastante documentação sobre Interaction to Next Paint (INP, na sigla em inglês) no site web.dev. É recomendável verificar isso se tiver interesse em melhorar as pontuações do seu site. O INP ainda não faz parte das Core Web Vitals, que são apenas um dos muitos elementos que desempenham um papel na experiência na página e nos sistemas de conteúdo úteis. Embora melhorar a INP possa ajudar na experiência do usuário, não espere que isso mude visivelmente a classificação na pesquisa.

Como removo 30 mil URLs do Google Search Console criados por uma invasão com palavras-chave japonesas?

John: Heather pergunta: como remover 30 mil URLs do GSC criados por uma invasão com palavras-chave japonesas?

Olá, Heather. Que pena que sua conta foi invadida. Espero que tenha conseguido resolver o problema nesse meio tempo, mas temos conteúdo sobre esse tipo de invasão no web.dev. Vou incluir um link para esse recurso na transcrição. Essa invasão tende a esconder o conteúdo invadido para o Google. Por isso, talvez você precise de ajuda para verificar novamente se ele foi totalmente removido. Em relação aos resultados da pesquisa, dado o número de páginas envolvidas, recomendamos focar nas páginas mais visíveis e resolvê-las manualmente removendo ou reindexando e deixar o resto desaparecer por conta própria. Se você procurar explicitamente pelo conteúdo invadido, ainda poderá encontrá-lo por algum tempo, mas o usuário médio estaria procurando seu site, e o objetivo deve ser deixar esses resultados de pesquisa adequados.

Por que minhas páginas são desindexadas depois de enviadas para indexação no Search Console? Já fiz isso várias vezes.

John: Grace pergunta: por que as páginas são desindexadas depois de enviadas para indexação no Search Console? Já fiz isso várias vezes.

Olá, Grace. Não posso dizer sem saber as páginas envolvidas. No entanto, isso sugere que nossos sistemas não estão convencidos sobre o valor do seu site e do conteúdo dele. Quase nunca indexamos todas as páginas de um site, então isso já é esperado em algumas delas. Você pode forçar a indexação uma vez, mas nossos sistemas reavaliarão o conteúdo e o site ao longo do tempo e talvez essas páginas sejam descartadas novamente. A melhor providência é não continuar tentando inserir essas páginas, mas convencer nossos sistemas sobre a qualidade geral do seu site, o valor único que ele está agregando à Web e a correspondência do que os usuários realmente procuram. Depois disso, vamos indexar o conteúdo por conta própria.