Cómo supervisar el rendimiento

Hacer que el rendimiento sea una prioridad no solo es bueno para los usuarios, sino también para las empresas. Si bien las prácticas recomendadas de esta colección se centran principalmente en la optimización de su integración de Google Publisher Tag (GPT), muchos otros factores contribuyen al rendimiento general de una página determinada. Cada vez que ingresas cambios, es importante evaluar su impacto en todos los aspectos del rendimiento del sitio.

Cómo medir el rendimiento de las páginas

A fin de comprender cómo un cambio afecta el rendimiento de tu sitio, primero debes establecer un modelo de referencia para compararlo. La mejor manera de hacerlo es crear un presupuesto de rendimiento que defina una base de idea, que tu sitio pueda cumplir o no. Sin embargo, si te interesa mantener un nivel fijo de rendimiento, puedes usar las métricas de rendimiento actuales de tu sitio como modelo de referencia.

Para comenzar a medir el rendimiento, se recomienda una combinación de los siguientes enfoques:

  • Supervisión sintética
    Puedes usar herramientas como Lighthouse y Publisher Ads Audits for Lighthouse para medir el rendimiento de las páginas en un entorno de lab. Este tipo de medición no requiere la interacción del usuario final, por lo que es adecuado para pruebas automatizadas y se puede usar a fin de validar el rendimiento de los cambios antes de publicarlos.
  • Supervisión de usuarios reales (RUM)
    Puedes usar herramientas como Google Analytics y PageSpeed Insights para recopilar datos de rendimiento reales directamente de los usuarios. Este tipo de medición se basa en las interacciones del usuario final, por lo que resulta útil para identificar problemas de rendimiento en el último tramo que no se pueden detectar con facilidad mediante pruebas sintéticas.

Asegúrese de tomar las mediciones y compararlas con su modelo de referencia periódicamente. Esto te permitirá saber si el rendimiento de tu sitio es tendencia en el tiempo.

Elija qué medir

Cuando se trata del rendimiento, no hay una sola métrica que pueda brindarte toda la información que necesitas sobre el rendimiento de tu sitio. Tendrás que consultar una variedad de métricas que abarcan varios aspectos del rendimiento de la página para obtener un panorama completo. En la siguiente tabla, se enumeran algunas métricas clave de rendimiento y métricas sugeridas.

Área de rendimiento
Velocidad de carga percibida Medidas

La rapidez con la que una página puede cargar y renderizar todos los elementos de la IU.


Métricas sugeridas

Primer procesamiento de imagen con contenido (FCP)
Procesamiento de imagen con contenido más grande (LCP)
Tiempo de renderización del primer anuncio

Capacidad de respuesta de carga de página Medidas

Qué tan rápido responde una página después de la carga inicial.


Métricas sugeridas

Retraso de primera entrada (FID)
Tiempo hasta que es interactiva (TTI)
Tiempo de bloqueo total (TBT)

Estabilidad visual Medidas

La cantidad de elementos de la IU que cambian y si estos cambios interfieren en la interacción del usuario. Consulta Cómo minimizar el cambio de diseño para obtener más información.


Métricas sugeridas

Cambio de acumulación de anuncios
Cambio de diseño acumulado (CLS)

Además del rendimiento de la página, también puedes medir las métricas de empresa específicas de anuncios. La información como las impresiones, los clics y la visibilidad en función de cada espacio se puede obtener de los informes de Google Ad Manager.

Probar cambios

Una vez que hayas definido las métricas de rendimiento y hayas comenzado a medirlas con regularidad, puedes comenzar a utilizar estos datos para evaluar el impacto en el rendimiento de los cambios en tu sitio a medida que se realizan. Para ello, compara las métricas medidas después de realizar un cambio con las que se miden antes de realizar el cambio (o el modelo de referencia que estableciste antes). Este tipo de prueba te permitirá detectar y solucionar los problemas de rendimiento antes de que se conviertan en un problema grave para tu empresa o tus usuarios.

Pruebas automáticas

Puedes medir métricas que no dependan de la interacción del usuario a través de pruebas sintéticas. Estos tipos de pruebas deben ejecutarse con la mayor frecuencia posible durante el proceso de desarrollo para comprender cómo los cambios no publicados afectarán el rendimiento. Este tipo de pruebas proactivas puede ayudar a descubrir problemas de rendimiento antes de que se publiquen los cambios para los usuarios.

Una forma de lograr esto es hacer que las pruebas sintéticas formen parte de un flujo de trabajo de integración continua (CI), en el que las pruebas se ejecutan de forma automática cada vez que se realiza un cambio. Puedes usar Lighthouse CI para integrar pruebas de rendimiento sintéticos en muchos flujos de trabajo de CI:

Pruebas A/B

Las métricas que dependen de la interacción del usuario no se pueden probar por completo hasta que se publique un cambio. Esto puede ser riesgoso si no estás seguro de cómo se comportará el cambio. Una técnica para mitigar ese riesgo son las pruebas A/B.

Durante una prueba A/B, las diferentes variantes de una página se muestran a los usuarios de forma aleatoria. Puedes usar esta técnica para entregar una versión modificada de tu página a un porcentaje pequeño del tráfico general, mientras que la mayoría continúa entregando la página sin modificar. En combinación con el RUM, puedes evaluar el rendimiento relativo de los dos grupos para determinar cuál tiene un mejor rendimiento, sin poner en riesgo el 100% del tráfico.

Otro beneficio de las pruebas A/B es que te permiten medir con mayor precisión los efectos de los cambios. Para muchos sitios, puede ser difícil determinar si una pequeña diferencia de rendimiento se debe a un cambio reciente o a una variación normal en el tráfico. Dado que el grupo experimental de una prueba A/B representa un porcentaje fijo del tráfico general, las métricas deben diferir del grupo de control en un factor constante. Por lo tanto, las diferencias observadas entre los 2 grupos pueden atribuirse con más confianza al cambio que se prueba.

Las herramientas como Optimizely y Google Optimize pueden ayudarte a configurar y ejecutar pruebas A/B. Sin embargo, ten en cuenta que las pruebas A/B basadas en etiquetas (la configuración predeterminada de estas herramientas) pueden tener un impacto negativo en el rendimiento y proporcionar resultados engañosos. Por lo tanto, se recomienda la integración del lado del servidor:

Resultados de pruebas A/B

Para medir el impacto de un cambio con una prueba A/B, recopila métricas de los grupos de control y experimentales y compáralas entre sí. Para hacerlo, necesitas una manera de saber qué tráfico forma parte de qué grupo.

Para las métricas de rendimiento de la página, a menudo es suficiente incluir un identificador simple en cada página que indique si se entregó la versión experimental o de control. Este identificador puede ser cualquier elemento que desees, siempre que sea algo que puedas analizar y correlacionar con las métricas. Si usas un framework de prueba compilado previamente, por lo general, se manejará automáticamente.

En el caso de las métricas comerciales específicas de los anuncios, puede usar la función de orientación de clave-valor de GPT para diferenciar las solicitudes de anuncios del grupo de control y del grupo experimental:

// On control group (A) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'a');

// On experimental group (B) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'b');

Luego, se puede hacer referencia a estos pares clave-valor cuando se ejecutan informes de Google Ad Manager para filtrar los resultados por grupo.