À propos de PageSpeed Insights

Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

L'outil PageSpeed Insights (PSI) génère des rapports sur l'expérience utilisateur sur les pages pour appareils mobiles et ordinateurs, ainsi que des suggestions pour améliorer cette page.

L'outil PSI fournit des données de laboratoire et de terrain sur une page. Les données de l'atelier sont utiles pour résoudre les problèmes, car elles sont collectées dans un environnement contrôlé. Toutefois, il risque de ne pas capturer les goulots d'étranglement réels. Les données de champ permettent de capturer une expérience utilisateur réelle, mais avec un ensemble plus limité de métriques. Pour en savoir plus sur ces deux types de données, consultez l'article How To Think About Speed Tools.

Données sur l'expérience utilisateur réelle

Dans PSI, les données d'expérience utilisateur sont fournies par l'ensemble de données Chrome User Experience Report (CrUX). PSI signale les expériences utilisateur réelles au cours des 28 derniers jours : First Contentful Paint (FCP), First Input Delay (FID), Largest Contentful Paint (LCP) et Cumulative Layout Shift (CLS). PSI signale également des expériences pour les métriques expérimentales Interaction avec Next Paint (INP) et Time to First Byte (TTFB).

Afin d'afficher les données sur l'expérience utilisateur pour une page donnée, il doit y avoir suffisamment de données pour être incluses dans l'ensemble de données CrUX. Une page peut ne pas contenir suffisamment de données si elle a été publiée récemment ou comporte trop peu d'échantillons d'utilisateurs réels. Dans ce cas, l'outil PSI revient à la précision au niveau de l'origine, qui englobe toutes les expériences utilisateur sur toutes les pages du site Web. Parfois, l'origine peut également contenir des données insuffisantes. Dans ce cas, PSI ne peut pas afficher de données réelles sur l'expérience utilisateur.

Évaluer la qualité des expériences

L'outil PSI classe la qualité de l'expérience utilisateur selon trois catégories : "Satisfaisante", "Amélioration nécessaire" ou "Médiocre". PSI définit les seuils suivants conformément à l'initiative Signaux Web:

Satisfaisantes Amélioration nécessaire Médiocre
FCP [0, 1800ms] (1 800 ms, 3 000 ms) plus de 3 000 ms
FID [0, 100ms] (100 ms, 300 ms) plus de 300 ms
LCP [0, 2500ms] (2 500 ms, 4 000 ms) plus de 4 000 ms
CLS [0, 0,1] (0,1, 0,25] Plus de 0,25
INP (expérimental) [0, 200ms] (200 ms, 500 ms) plus de 500 ms
TTFB (expérimental) [0, 800ms] (800 ms, 1 800 ms) plus de 1 800 ms

Répartition et valeurs de métriques sélectionnées

L'outil PSI présente une répartition de ces métriques afin que les développeurs puissent comprendre la gamme d'expériences proposées pour cette page ou cette origine. Cette répartition est divisée en trois catégories : "Bon", "Amélioration nécessaire" et "Médiocre". Celles-ci sont représentées par des barres vertes, orange et rouges. Par exemple, si vous voyez 11% dans la barre orange LCP, cela signifie que 11% de toutes les valeurs LCP observées sont comprises entre 2 500 ms et 4 000 ms.

Capture d'écran de la distribution d'expériences LCP réelles

Au-dessus des barres de distribution, PSI indique le 75e centile pour toutes les métriques. Le 75e centile est sélectionné afin que les développeurs puissent comprendre les expériences utilisateur les plus frustrantes sur leur site. Ces valeurs de métriques de champ sont classées comme bonnes/nécessaires ou nécessitant moins d'amélioration en appliquant les mêmes seuils que ceux indiqués ci-dessus.

Signaux Web essentiels

Les signaux Web essentiels constituent un ensemble courant de signaux de performances essentiels à toutes les expériences Web. Les métriques des Signaux Web essentiels sont le FID, le LCP et le CLS. Elles peuvent être agrégées au niveau de la page ou de l'origine. Pour les agrégations avec suffisamment de données dans les trois métriques, l'agrégation réussit l'évaluation Core Web Vitals si le 75e centile de ces trois métriques est satisfaisant. Sinon, l'agrégation échoue à l'évaluation. Si l'agrégation contient des données insuffisantes pour le FID, elle réussit l'évaluation si les 75e centiles de LCP et de CLS sont corrects. Si les données LCP ou CLS sont insuffisantes, l'agrégation au niveau de la page ou de l'origine ne peut pas être évaluée.

Différences entre les données des champs PSI et CrUX

La différence entre les données de champ dans PSI et l'ensemble de données CrUX sur BigQuery est que les données de PSI sont mises à jour quotidiennement, tandis que l'ensemble de données BigQuery est mis à jour mensuellement et se limite aux données d'origine. Les deux sources de données représentent les périodes de 28 jours.

Diagnostics de l'atelier

PSI utilise Lighthouse pour analyser l'URL donnée dans un environnement simulé pour les catégories "Performances", "Accessibilité", "Bonnes pratiques" et "SEO".

Score

En haut de la section, vous trouverez des scores pour chaque catégorie, déterminés par l'exécution de Lighthouse afin de collecter et d'analyser les informations de diagnostic de la page. Un score de 90 ou plus est considéré comme satisfaisant. Un score compris entre 50 et 89 doit être amélioré. Un score inférieur à 50 est considéré comme faible.

Métriques

La catégorie "Performances" comprend également les performances de la page pour différentes métriques, y compris les suivantes : First Contentful Paint, Largest Contentful Paint, Speed Index, Cumulative Layout Shift, Time to Interactive et Total Blocking Time.

Chaque métrique est marquée et associée à une icône:

  • Le produit est bien signalé par un cercle vert
  • Amélioration nécessaire indiquée par un carré orange
  • "Médiocre" est indiqué par un triangle d'avertissement rouge

Audits

Dans chaque catégorie, des audits fournissent des informations sur la façon d'améliorer l'expérience utilisateur. Consultez la documentation Lighthouse pour obtenir une répartition détaillée des audits de chaque catégorie.

Questions fréquentes

Quelles sont les conditions de l'appareil et du réseau utilisées par Lighthouse pour simuler un chargement de page ?

Lighthouse simule actuellement les conditions de chargement des pages d'un appareil de milieu de gamme (Moto G4) sur un réseau mobile pour mobile et d'un ordinateur de bureau émulé avec une connexion filaire pour ordinateur. PageSpeed s'exécute également dans un centre de données Google qui peut varier en fonction des conditions du réseau. Vous pouvez vérifier l'emplacement du test en consultant le blocage de l'environnement du rapport Lighthouse:

Capture d'écran de l'info-bulle sur la limitation des informations

Remarque: PageSpeed s'affiche comme suit: Amérique du Nord, Europe ou Asie.

Pourquoi les données de terrain et les données d'atelier se contredisent-elles parfois ?

Les données de champ sont un rapport d'historique sur les performances d'une URL spécifique. Elles représentent des données de performances anonymes provenant d'utilisateurs réels sur divers appareils et dans différentes conditions de réseau. Les données de l'atelier sont basées sur une simulation de chargement de page sur un seul appareil et sur un ensemble fixe de conditions réseau. Par conséquent, les valeurs peuvent varier. Pour en savoir plus, consultez la section Pourquoi les données des ateliers et les champs peuvent-elles être différentes ? (Que faire à ce sujet ?)

Pourquoi le 75e centile est-il choisi pour toutes les métriques ?

Notre objectif est de nous assurer que les pages fonctionnent correctement pour la majorité des utilisateurs. En nous concentrant sur les valeurs du 75e centile pour nos métriques, nous nous assurons que les pages offrent une bonne expérience utilisateur dans les conditions les plus difficiles pour l'appareil et le réseau. Pour en savoir plus, consultez Définir les seuils de métriques Signaux Web essentiels.

Quel est le bon score pour les données de l'atelier ?

Tout score vert (plus de 90) est considéré comme satisfaisant, mais cela ne signifie pas nécessairement qu'une expérience utilisateur réelle sera bonne.

Pourquoi le score de performances varie-t-il d'une exécution à l'autre ? Je n'ai rien modifié sur ma page !

La variabilité de la mesure des performances est introduite via plusieurs canaux ayant différents niveaux d'impact. Plusieurs sources courantes de variabilité des métriques sont la disponibilité du réseau local, la disponibilité du matériel client et les conflits de ressources client.

Pourquoi les données CrUX utilisateur réelles ne sont-elles pas disponibles pour une URL ou une origine ?

Le rapport d'expérience utilisateur Chrome agrège les données de vitesse réelles des utilisateurs ayant activé cette fonctionnalité, et exige qu'une URL soit publique (explorable et indexable) et contienne suffisamment d'échantillons distincts pour offrir une vue représentative et anonyme des performances de l'URL ou de l'origine.

D'autres questions ?

Si vous vous posez des questions précises et auxquelles vous pouvez répondre sur l'utilisation de PageSpeed Insights, posez-les en anglais sur Stack Overflow.

Si vous avez des commentaires ou des questions d'ordre général sur PageSpeed Insights, ou si vous souhaitez lancer une discussion générale, démarrez un fil de discussion dans la liste de diffusion.

Si vous avez des questions d'ordre général sur les métriques Signaux Web, démarrez un fil de discussion dans le groupe de discussion web-vitals-feedback.

Commentaires

Cette page vous a-t-elle été utile ?