Simplificar la estructura de las URLs

La estructura de las URLs de un sitio debe ser lo más sencilla posible. Te recomendamos que organices tu contenido de modo que las URLs sean lógicas y los usuarios puedan entenderlas.

Siempre que sea posible, utiliza palabras en vez de números de ID largos.

Recomendado: URL con palabras sencillas y descriptivas

https://en.wikipedia.org/wiki/Aviation

Recomendado: URL con palabras localizadas, si procede.

https://www.example.com/lebensmittel/pfefferminz

Recomendado: utilizar la codificación UTF-8 según sea necesario. En el siguiente ejemplo, se utiliza la codificación UTF-8 para los caracteres árabes en la URL:

https://www.example.com/%D9%86%D8%B9%D9%86%D8%A7%D8%B9/%D8%A8%D9%82%D8%A7%D9%84%D8%A9

En el siguiente ejemplo, se utiliza la codificación UTF-8 para los caracteres chinos en la URL:

https://example.com/%E6%9D%82%E8%B4%A7/%E8%96%84%E8%8D%B7

En el siguiente ejemplo, se utiliza la codificación UTF-8 para la diéresis en la URL:

https://www.example.com/gem%C3%BCse

En el siguiente ejemplo, se utiliza la codificación UTF-8 para los emojis en la URL:

https://example.com/%F0%9F%A6%99%E2%9C%A8

No recomendado: utilizar caracteres que no sean ASCII en la URL:

https://www.example.com/نعناع
https://www.example.com/杂货/薄荷
https://www.example.com/gemüse
https://www.example.com/🦙✨

No recomendado: URL con números de ID largos e ilegibles

https://www.example.com/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f1

Si tu sitio es multirregional, te recomendamos que uses una estructura de URLs con la que resulte sencillo dirigir tu sitio a usuarios de diferentes zonas geográficas. Para ver más ejemplos de formas de estructurar tus URLs, consulta cómo usar URLs específicas de configuración regional.

Recomendado: dominio específico del país

https://example.de

Recomendado: subdirectorio específico del país con gTLD

https://example.com/de/

Puedes usar guiones para separar las palabras en las URLs para que los usuarios y los buscadores identifiquen los conceptos de la URL más fácilmente. Te recomendamos que uses guiones normales (-) mejor que guiones bajos (_) en tus URLs.

Recomendado: guiones (-)

https://www.example.com/summer-clothing/filter?color-profile=dark-grey

No recomendado: guiones bajos (_)

https://www.example.com/summer_clothing/filter?color_profile=dark_grey

No recomendado: palabras de la URL escritas juntas

https://www.example.com/greendress

Las URLs demasiado complejas, sobre todo las que contienen varios parámetros, pueden suponer un problema porque los rastreadores pueden encontrarse con demasiadas URLs que dirigen a contenido similar o idéntico de tu sitio. En estas situaciones, el robot de Google puede consumir una cantidad de ancho de banda muy superior a la necesaria o dejarse parte del contenido del sitio sin indexar.

Causas habituales de este problema

Hay varios motivos por los que puede haber un exceso de URLs. Aquí tienes algunos:

  • Acumulación de filtros sobre un conjunto de elementos. Muchos sitios ofrecen distintas vistas del mismo conjunto de elementos o resultados de búsqueda y permiten que los usuarios filtren ese conjunto según criterios definidos. Por ejemplo, un usuario podría buscar hoteles en la playa. Cuando se pueden combinar filtros (por ejemplo, si se pueden buscar hoteles en la playa que tengan gimnasio), la cantidad de URLs (vistas de datos) del sitio se dispara. Siguiendo con el ejemplo, es redundante crear muchas listas de hoteles ligeramente distintas porque al robot de Google le basta con ver solo unas cuantas que le permitan acceder a las páginas de todos los hoteles. Por ejemplo:
    • Hoteles a "precios interesantes":
      https://www.example.com/hotel-search-results.jsp?Ne=292&N=461
    • Hoteles a "precios interesantes" en la playa:
      https://www.example.com/hotel-search-results.jsp?Ne=292&N=461+4294967240
    • Hoteles a "precios interesantes" en la playa y con gimnasio:
      https://www.example.com/hotel-search-results.jsp?Ne=292&N=461+4294967240+4294967270
  • Generar documentos de forma dinámica. Este método puede provocar pequeñas modificaciones debido a la presencia de contadores, marcas de tiempo o anuncios.
  • Parámetros problemáticos en la URL. Los IDs de sesión, por ejemplo, pueden crear enormes cantidades de duplicados y un mayor número de URLs.
  • Formas de ordenar los parámetros. Algunos sitios de compras grandes ofrecen varias formas de ordenar los mismos elementos, lo que se traduce en un número de URLs mucho mayor. Por ejemplo:
    https://www.example.com/results?search_type=search_videos&search_query=tpb&search_sort=relevance&search_category=25
  • Parámetros irrelevantes en la URL, como los parámetros de referencia. Por ejemplo:
    https://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=OPD+Product+Page&cat=79
    https://www.example.com/discuss/showthread.php?referrerid=249406&threadid=535913
    https://www.example.com/products/products.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessories.
  • Problemas de calendario. Los calendarios generados dinámicamente pueden crear enlaces a fechas pasadas y futuras sin ninguna restricción sobre las fechas de inicio ni de finalización. Por ejemplo:
    https://www.example.com/calendar.php?d=13&m=8&y=2011
  • Enlaces relativos rotos. A menudo, los enlaces relativos rotos pueden causar espacios infinitos. Este problema suele producirse debido a la repetición de elementos de rutas. Por ejemplo:
    https://www.example.com/index.shtml/discuss/category/school/061121/html/interview/category/health/070223/html/category/business/070302/html/category/community/070413/html/FAQ.htm

Solucionar este problema

Para impedir que haya problemas con la estructura de las URLs, te recomendamos que tengas en cuenta las siguientes consideraciones:

  • Puedes utilizar un archivo robots.txt que bloquee el acceso del robot de Google a las URLs problemáticas. Normalmente, deberías bloquear URLs dinámicas, como las que generan resultados de búsqueda, o de URLs que pueden crear espacios infinitos, como calendarios. El uso de expresiones regulares en el archivo robots.txt te permite bloquear fácilmente grandes cantidades de URLs.
  • Si es posible, usa cookies en vez de IDs de sesión en las URLs.
  • Si es posible, quita parámetros innecesarios de las URLs para acortarlas.
  • Si tu sitio tiene un calendario infinito, añade un atributo nofollow a los enlaces que lleven a páginas de calendario futuras creadas dinámicamente.
  • Comprueba si tu sitio contiene enlaces relativos rotos.