Surveiller les performances

Rendre les performances prioritaires n'est pas seulement bon pour les utilisateurs, c'est aussi un bon point sur votre activité. Bien que les bonnes pratiques de cette collection visent principalement à optimiser votre intégration des tags Google Publisher Tag (GPT), de nombreux autres facteurs contribuent aux performances globales d'une page donnée. Chaque fois que vous apportez des modifications, il est important d'évaluer leur impact sur tous les aspects des performances de votre site.

Mesurer les performances des pages

Pour comprendre l'impact d'un changement sur les performances de votre site, vous devez d'abord établir une référence pour la comparaison. La meilleure façon de procéder est de créer un budget de performance qui définit le concept de base que votre site peut actuellement atteindre ou non. Toutefois, si vous souhaitez conserver un niveau de performances fixe, vous pouvez utiliser les métriques de performances actuelles de votre site comme référence.

Pour commencer à mesurer les performances, nous vous recommandons d'associer les approches suivantes:

  • Surveillance synthétique
    Vous pouvez utiliser des outils tels que Lighthouse et les audits des annonces d'éditeur pour Lighthouse pour mesurer les performances des pages dans un environnement d'atelier. Ce type de mesure ne nécessite pas d'interaction de l'utilisateur final. Il convient donc bien aux tests automatisés et peut être utilisé pour valider les performances des modifications avant de les proposer aux utilisateurs.
  • Surveillance réelle des utilisateurs (RUM)
    Vous pouvez utiliser des outils tels que Google Analytics et PageSpeed Insights pour recueillir des données de performances réelles directement auprès des utilisateurs. Ce type de mesure est basé sur les interactions des utilisateurs finaux. Il est donc utile pour identifier les problèmes de performances du dernier kilomètre, qui ne peuvent pas facilement être découverts par les tests synthétiques.

Prenez des mesures et comparez-les régulièrement avec vos valeurs de référence. Cela vous permettra de savoir si les performances de votre site évoluent dans le bon sens au fil du temps.

Choisissez ce que vous souhaitez évaluer

En ce qui concerne les performances, il n'existe pas une seule métrique qui peut vous fournir tout ce que vous devez savoir sur les performances de votre site. Pour obtenir une vue d'ensemble, vous devez examiner diverses métriques couvrant différents aspects des performances de la page. Le tableau ci-dessous présente certains des principaux domaines de performances et des métriques suggérées.

Performances
Vitesse de chargement perçue Mesures

Vitesse à laquelle une page peut charger et afficher tous les éléments de l'interface utilisateur


Suggestions de métriques

First Contentful Paint (FCP)
Largest Contentful Paint (LCP)
Temps d'affichage de la première annonce

Réactivité du chargement de page Mesures

Vitesse à laquelle une page devient responsive après le chargement initial


Suggestions de métriques

Premier délai d'entrée (FID)
Temps avant interactivité (TTI)
Temps total de blocage (TBT)

Stabilité visuelle Mesures

Dans quelle mesure les éléments de l'interface utilisateur changent-ils et si ces changements interfèrent-ils avec l'interaction de l'utilisateur ? Pour en savoir plus, consultez Réduire le décalage de la mise en page.


Suggestions de métriques

Changement au niveau de l'annonce cumulée
Changement de mise en page (CLS) cumulé

Outre les performances des pages, vous pouvez également mesurer des métriques métier spécifiques aux annonces. Vous pouvez obtenir des informations telles que les impressions, les clics et la visibilité, espace par emplacement, grâce aux rapports Google Ad Manager.

Tester les modifications

Une fois que vous avez défini vos métriques de performances et commencé à les mesurer régulièrement, vous pouvez commencer à utiliser ces données pour évaluer l'impact des modifications sur votre site au fur et à mesure de leur modification. Pour ce faire, comparez les métriques mesurées après une modification à celles mesurées avant la modification (et/ou la référence établie précédemment). Ce type de test vous permet de détecter et de résoudre les problèmes de performances avant qu'ils ne deviennent un problème majeur pour votre entreprise ou vos utilisateurs.

Tests automatiques

Vous pouvez mesurer les métriques qui ne dépendent pas de l'interaction de l'utilisateur via des tests synthétiques. Ces types de tests doivent être exécutés aussi souvent que possible pendant le processus de développement, afin de comprendre comment les modifications non publiées affecteront les performances. Ce type de tests proactifs peut vous aider à identifier des problèmes de performances avant que les modifications ne soient appliquées aux utilisateurs.

Pour ce faire, vous pouvez intégrer les tests synthétiques à un workflow d'intégration continue (CI), dans lequel les tests sont exécutés automatiquement à chaque modification. Vous pouvez utiliser Lighthouse CI pour intégrer des tests de performances synthétiques à de nombreux workflows CI:

Tests A/B

Les métriques qui dépendent de l'interaction des utilisateurs ne peuvent pas être entièrement testées tant qu'une modification n'est pas réellement proposée aux utilisateurs. Cela peut être risqué si vous ne savez pas comment le changement se comportera. Une des techniques pour atténuer ce risque est le test A/B.

Lors d'un test A/B, différentes variantes d'une page sont diffusées de manière aléatoire aux internautes. Vous pouvez utiliser cette technique pour diffuser une version modifiée de votre page auprès d'un faible pourcentage du trafic global, tandis que la plupart d'entre eux continuent de recevoir la page non modifiée. Combiné avec RUM, vous pouvez ensuite évaluer les performances relatives des deux groupes pour déterminer le plus performant, sans compromettre la totalité du trafic.

Un autre avantage des tests A/B est qu'ils vous permettent de mesurer plus précisément les effets des modifications. Pour de nombreux sites, il peut être difficile de déterminer si une légère différence de performances est due à un changement récent ou à une variation normale du trafic. Étant donné que le groupe de test d'un test A/B représente un pourcentage fixe du trafic global, les métriques doivent différer du groupe de contrôle par un facteur constant. Par conséquent, les différences observées entre les deux groupes peuvent être attribuées avec plus de confiance à la modification testée.

Des outils tels que Optimizely et Google Optimize peuvent vous aider à configurer et à exécuter des tests A/B. Sachez toutefois que les tests A/B basés sur des balises (configuration par défaut de ces outils) peuvent avoir un impact négatif sur les performances et fournir des résultats trompeurs. Par conséquent, l'intégration côté serveur est vivement recommandée:

Résultats du test A/B

Pour mesurer l'impact d'un changement à l'aide d'un test A/B, vous devez collecter des métriques issues des groupes de contrôle et de test, puis les comparer entre elles. Pour cela, vous avez besoin d'un moyen d'identifier le trafic dans quel groupe.

Pour les métriques de performances des pages, il suffit souvent d'inclure un identifiant simple sur chaque page pour indiquer si la version de contrôle ou expérimentale a été diffusée. Vous pouvez utiliser cet identifiant comme bon vous semble, tant qu'il vous permet d'analyser et de mettre en corrélation des métriques. Si vous utilisez un framework de test prédéfini, cette opération est généralement effectuée automatiquement.

Pour les métriques métier spécifiques aux annonces, vous pouvez utiliser la fonctionnalité de ciblage par clé-valeur de GPT pour différencier les demandes d'annonces du groupe de contrôle et du groupe de test:

// On control group (A) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'a');

// On experimental group (B) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'b');

Ces paires valeur/clé peuvent ensuite être référencées lors de l'exécution de rapports Google Ad Manager pour filtrer les résultats par groupe.