À propos de PageSpeed Insights

PageSpeed Insights (PSI) fournit des rapports sur l'expérience utilisateur d'une page sur les appareils mobiles et les ordinateurs, et suggère des améliorations à apporter à cette page.

PSI fournit des données de test et des données réelles concernant une page. Les données de test sont utiles pour déboguer les problèmes, car elles sont collectées dans un environnement contrôlé. Cependant, il est possible qu'il ne capture pas les goulots d'étranglement réels. Les données réelles sont utiles pour capturer l'expérience utilisateur réelle, mais leur ensemble de métriques est plus limité. Pour en savoir plus sur ces deux types de données, consultez À propos des outils de vitesse.

Données sur l'expérience utilisateur réelle

Les données sur l'expérience utilisateur réelle dans PSI sont basées sur l'ensemble de données du rapport d'expérience utilisateur Chrome (CrUX). PSI signale les expériences First Contentful Paint (FCP), First Input Delay (FID), Largest Contentful Paint (LCP), Cumulative Layout Shift (CLS) et Interaction to Next Paint (INP) des utilisateurs réels sur la période de collecte de 28 jours précédente. PSI signale également des expériences pour la métrique expérimentale Time to First Byte (TTFB).

Afin d'afficher les données sur l'expérience utilisateur pour une page donnée, elle doit contenir suffisamment de données pour qu'elle soit incluse dans l'ensemble de données CrUX. Une page peut ne pas contenir suffisamment de données si elle a été publiée récemment ou si elle contient trop peu d'échantillons provenant d'utilisateurs réels. Dans ce cas, PSI applique la précision au niveau de l'origine, qui englobe toutes les expériences utilisateur sur toutes les pages du site Web. Parfois, les données de l'origine sont également insuffisantes, auquel cas PSI n'est pas en mesure d'afficher des données sur l'expérience utilisateur réelle.

Évaluer la qualité des expériences

L'outil PSI classe la qualité des expériences utilisateur en trois catégories : "Bonne", "Amélioration nécessaire" et "Médiocre". PSI définit les seuils suivants conformément à l'initiative Signaux Web:

Bonne Amélioration nécessaire Médiocre
FCP [0, 1800ms] (1800ms, 3000ms] plus de 3 000 ms
FID [0, 100ms] (100 ms, 300 ms) plus de 300 ms
LCP [0, 2500ms] (2500ms, 4000ms] Plus de 4 000 ms
CLS [0, 0,1] (0,1, 0,25] supérieure à 0,25
INP [0, 200ms] (200 ms, 500 ms) plus de 500 ms
TTFB (expérimental) [0, 800ms] (800ms, 1800ms] Plus de 1 800 ms

Répartition et valeurs des métriques sélectionnées

L'outil PSI présente une distribution de ces métriques afin que les développeurs puissent comprendre la gamme d'expériences pour cette page ou cette origine. Cette distribution est divisée en trois catégories : "Bon", "Amélioration nécessaire" et "Médiocre", représentées par des barres vertes, orange et rouges. Par exemple, une valeur de 11% dans la barre orange du LCP indique que 11% de toutes les valeurs LCP observées sont comprises entre 2 500 ms et 4 000 ms.

Capture d'écran de la répartition des expériences LCP en situation réelle

Au-dessus des barres de distribution, l'outil PSI indique le 75e centile pour toutes les métriques. Le 75e centile est sélectionné afin que les développeurs puissent comprendre les expériences utilisateur les plus frustrantes sur leur site. Ces valeurs des métriques de champ sont classées comme bonnes/nécessaires/médiocres en appliquant les mêmes seuils que ceux indiqués ci-dessus.

Core Web Vitals

Les signaux Web essentiels correspondent à un ensemble commun de signaux de performances essentiels à toutes les expériences Web. Les métriques des Signaux Web essentiels sont le FID, le LCP et le CLS. Elles peuvent être agrégées au niveau de la page ou de l'origine. Pour les agrégations comportant suffisamment de données pour les trois métriques, l'agrégation réussit l'évaluation des Signaux Web essentiels si le 75e centile des trois métriques est correct. Sinon, l'agrégation ne passe pas l'évaluation. Si les données de l'agrégation sont insuffisantes pour le FID, elle réussira l'évaluation si les 75e centiles du LCP et du CLS sont corrects. Si les données du LCP ou du CLS sont insuffisantes, l'agrégation au niveau de la page ou de l'origine ne peut pas être évaluée.

Différences entre les données réelles dans PSI et dans CrUX

La différence entre les données de champ de PSI et celles de l'ensemble de données CrUX sur BigQuery réside dans le fait que les données de PSI sont mises à jour quotidiennement, tandis que l'ensemble de données BigQuery est mis à jour tous les mois et est limité aux données au niveau de l'origine. Les deux sources de données correspondent à des périodes de 28 jours.

Diagnostic de l'atelier

PSI utilise Lighthouse pour analyser l'URL donnée dans un environnement simulé pour les catégories "Performances", "Accessibilité", "Bonnes pratiques" et "SEO".

Score

En haut de la section, vous trouverez les scores pour chaque catégorie, déterminés par l'exécution de Lighthouse pour collecter et analyser les informations de diagnostic de la page. Un score de 90 ou plus est considéré comme satisfaisant. Un score compris entre 50 et 89 doit être amélioré. Un score inférieur à 50 est considéré comme médiocre.

Métriques

La catégorie "Performances" connaît également les performances de la page pour différentes métriques, y compris : First Contentful Paint, Largest Contentful Paint, Speed Index, Cumulative Layout Shift, Time to Interactive et Total Blocking Time.

Chaque métrique est notée et associée à une icône:

  • La qualité est indiquée par un cercle vert.
  • La mention "Amélioration nécessaire" est indiquée par un carré d'information orange.
  • Les indicateurs "Faibles" sont signalés par un triangle rouge.

Audits

Dans chaque catégorie se trouvent des audits qui fournissent des informations sur la façon d'améliorer l'expérience utilisateur sur la page. Consultez la documentation de Lighthouse pour obtenir une répartition détaillée des audits de chaque catégorie.

Questions fréquentes

Quelles conditions d'appareil et de réseau Lighthouse utilise-t-il pour simuler un chargement de page ?

Actuellement, Lighthouse simule les conditions de chargement des pages d'un appareil de milieu de gamme (Moto G4) sur un réseau mobile pour les mobiles et d'un ordinateur émulé avec une connexion filaire pour les ordinateurs de bureau. PageSpeed s'exécute également dans un centre de données Google qui peut varier en fonction de l'état du réseau. Pour vérifier l'emplacement du test, consultez le bloc "Environnement" du rapport Lighthouse:

Capture d'écran de l'info-bulle d'informations sur la limitation.

Remarque : Les rapports PageSpeed sont exécutés en Amérique du Nord, en Europe ou en Asie.

Pourquoi les données réelles et les données de laboratoire sont-elles parfois en contradiction les unes avec les autres ?

Les données réelles correspondent à un rapport historique sur les performances d'une URL spécifique. Elles représentent des données de performances anonymes provenant d'utilisateurs réels, sur divers appareils et selon l'état du réseau. Les données de test sont basées sur le chargement simulé d'une page sur un seul appareil et sur un ensemble fixe d'états du réseau. Par conséquent, les valeurs peuvent être différentes. Pour en savoir plus, consultez En quoi les données de test et les données de champ peuvent être différentes (et comment y remédier).

Pourquoi le 75e centile est-il choisi pour toutes les métriques ?

Notre objectif est de nous assurer que les pages fonctionnent correctement pour la majorité des utilisateurs. En nous concentrant sur les valeurs du 75e centile pour nos métriques, nous nous assurons que les pages offrent une bonne expérience utilisateur dans les conditions les plus difficiles en termes d'appareils et de réseaux. Pour en savoir plus, consultez Définir les seuils des métriques des Signaux Web essentiels.

Quel est le bon score pour les données de laboratoire ?

Tout score vert (90 +) est considéré comme satisfaisant. Toutefois, notez que des données de test de qualité ne sont pas nécessairement bonnes pour les utilisateurs réels.

Pourquoi le score de performances change-t-il d'une course à l'autre ? Je n'ai rien modifié sur ma page !

La variabilité de la mesure des performances est introduite via plusieurs canaux avec différents niveaux d'impact. La disponibilité du réseau local, la disponibilité du matériel client et les conflits de ressources client sont plusieurs sources courantes de variabilité des métriques.

Pourquoi les données CrUX de l'utilisateur réel ne sont-elles pas disponibles pour une URL ou une origine ?

Le rapport sur l'expérience utilisateur Chrome regroupe des données réelles sur la vitesse provenant d'utilisateurs ayant accepté cette fonctionnalité. Il exige qu'une URL soit publique (explorable et indexable) et qu'elle contienne un nombre suffisant d'échantillons distincts qui fournissent une vue représentative et anonyme des performances de l'URL ou de son origine.

D'autres questions ?

Si vous avez une question spécifique sur l'utilisation de PageSpeed Insights qui permet d'y répondre, posez-la en anglais sur Stack Overflow.

Si vous avez des commentaires ou des questions d'ordre général sur PageSpeed Insights, ou si vous souhaitez entamer une discussion d'ordre général, créez un fil de discussion dans la liste de diffusion.

Si vous avez des questions d'ordre général sur les métriques des Signaux Web, démarrez un fil de discussion dans le groupe de discussion web-vitals-feedback.

Commentaires

Cette page vous a-t-elle été utile ?