À propos de PageSpeed Insights

L'outil PageSpeed Insights (PSI) fournit des informations sur l'expérience utilisateur sur une page à la fois sur mobile et sur ordinateur. Il propose également des suggestions pour améliorer cette page.

Il fournit à la fois des données expérimentales et des données pratiques sur une page. Les données de l'atelier sont utiles pour déboguer les problèmes, car elles sont collectées dans un environnement contrôlé. Toutefois, il ne capture peut-être pas les goulots d'étranglement réels. Les données de terrain sont utiles pour capturer des expériences utilisateur réelles, mais disposent d'un ensemble de métriques plus limité. Pour en savoir plus sur ces deux types de données, consultez la section Réflexions sur les outils de mesure de la vitesse.

Données sur l'expérience utilisateur réelle

Les données d'expérience utilisateur réelles sont fournies à partir de l'ensemble de données du rapport d'expérience utilisateur Chrome (CrUX). PSI signale les expériences réelles des utilisateurs : First Contentful Paint (FCP), First Input Delay (FID), Largest Contentful Paint (LCP), Cumulative Layout Shift (CLS) et Interaction to Next Paint (INP) au cours des 28 derniers jours de collecte. PSI signale également des expériences pour la métrique expérimentale Time to First Byte (TTFB).

Afin d'afficher les données sur l'expérience utilisateur pour une page donnée, il doit y avoir suffisamment de données à inclure dans l'ensemble de données CrUX. Une page peut ne pas contenir suffisamment de données si elle a été récemment publiée ou si elle contient trop peu d'échantillons d'utilisateurs réels. Dans ce cas, la PSI utilise à nouveau le niveau de précision au niveau de l'origine, qui englobe toutes les expériences utilisateur sur toutes les pages du site Web. Parfois, l'origine peut également comporter des données insuffisantes, auquel cas l'outil PSI ne peut pas afficher de données réelles sur l'expérience utilisateur.

Évaluer la qualité des expériences

L'outil PSI classe la qualité de l'expérience utilisateur en trois catégories : "Bon", "Amélioration nécessaire" ou "Médiocre". PSI définit les seuils suivants conformément à l'initiative Web Vitals:

Satisfaisantes Amélioration nécessaire Médiocre
FCP [0, 1800ms] (1800ms, 3000ms] Plus de 3 000 ms
FID [0, 100ms] (100ms, 300ms] Plus de 300 ms
LCP [0, 2500ms] (2 500 ms, 4 000 ms) Plus de 4 000 ms
CLS [0, 0,1] (0,1, 0,25] plus de 0,25
INP [0, 200ms] (200 ms, 500 ms) Plus de 500 ms
TTFB (fonctionnalité expérimentale) [0, 800ms] (800ms, 1800ms] Plus de 1 800 ms

Distribution et valeurs de métriques sélectionnées

L'outil PSI présente une répartition de ces métriques permettant aux développeurs de comprendre l'éventail d'expériences proposées pour cette page ou cette origine. Cette répartition est divisée en trois catégories : "Bon", "Amélioration nécessaire" et "Médiocre". Ces valeurs sont représentées par des barres vertes, orange et rouges. Par exemple, un indicateur de 11% dans la barre orange indique que 11% de toutes les valeurs LCP observées sont comprises entre 2 500 ms et 4 000 ms.

Capture d'écran de la distribution d'expériences LCP réelles.

Au-dessus des barres de distribution, l'outil PSI indique le 75e centile pour toutes les métriques. Le 75e centile est sélectionné pour que les développeurs puissent identifier les expériences utilisateur les plus frustrantes sur leur site. Ces valeurs de métriques de champ sont classées comme "Bonne", "Amélioration nécessaire" ou "Médiocre" en appliquant les mêmes seuils que ceux indiqués ci-dessus.

Signaux Web essentiels

Les signaux Web essentiels constituent un ensemble courant de signaux de performances essentiels à toutes les expériences Web. Les métriques des Signaux Web essentiels sont FID, LCP et CLS. Elles peuvent être agrégées au niveau de la page ou de l'origine. Pour les agrégations comportant suffisamment de données dans les trois métriques, l'agrégation réussit l'évaluation des Signaux Web essentiels si le 75e centile des trois métriques est satisfaisant. Sinon, l'agrégation ne répond pas aux critères d'évaluation. Si l'agrégation présente des données insuffisantes pour le FID, elle réussit l'évaluation si les 75e centiles du LCP et du CLS sont satisfaisants. Si les données ne sont pas suffisantes pour le LCP ou le CLS, la page ou l'agrégation au niveau de l'origine ne peuvent pas être évaluées.

Différences entre les données des champs PSI et CrUX

La différence entre les données de champ dans PSI et l'ensemble de données CrUX sur BigQuery est que les données de PSI sont mises à jour quotidiennement, alors que l'ensemble de données BigQuery est mis à jour chaque mois et limité aux données au niveau de l'origine. Les deux sources de données représentent des périodes de 28 jours finales.

Diagnostics de l'atelier

PSI utilise Lighthouse pour analyser l'URL donnée dans un environnement simulé à la recherche de catégories de performances, d'accessibilité, de bonnes pratiques et de SEO.

Score

En haut de la section, les scores de chaque catégorie sont déterminés en exécutant Lighthouse pour collecter et analyser les informations de diagnostic de la page. Un score de 90 ou plus est considéré comme satisfaisant. Un score de 50 à 89 nécessite une amélioration. Un score inférieur à 50 est considéré comme mauvais.

Métriques

La catégorie "Performances" contient également les performances de la page pour différentes métriques, y compris : First Contentful Paint, Largest Contentful Paint, Speed Index, Cumulative Layout Shift, Time to Interactive et Total Blocking Time.

Chaque métrique dispose d'un score et d'une icône:

  • Le "bon" est représenté par un cercle vert.
  • Une amélioration est indiquée par un carré orange.
  • "Mauvaise" est indiqué par un triangle d'avertissement rouge.

Audits

Dans chaque catégorie, des audits fournissent des informations sur la façon d'améliorer l'expérience utilisateur sur la page. Consultez la documentation de Lighthouse pour obtenir une répartition détaillée des audits de chaque catégorie.

Questions fréquentes

Quels sont les appareils et les conditions de réseau utilisés par Lighthouse pour simuler le chargement d'une page ?

Lighthouse simule actuellement les conditions de chargement des pages d'un appareil de milieu de gamme (Moto G4) sur un réseau mobile pour mobile et d'un ordinateur de bureau émulé avec une connexion filaire pour ordinateur. PageSpeed s'exécute également dans un centre de données Google pouvant varier en fonction des conditions du réseau. Vous pouvez vérifier l'emplacement du test en consultant le bloc d'environnement du rapport Lighthouse:

Capture d'écran de l'info-bulle sur les informations de limitation.

Remarque : PageSpeed génère des rapports basés en Amérique du Nord, en Asie ou en Europe.

Pourquoi les données des champs et les données des ateliers se contredisent-elles parfois ?

Les données sur le terrain correspondent à un rapport historique sur les performances d'une URL spécifique. Elles correspondent aux données anonymes sur les performances, provenant d'utilisateurs du monde réel sur divers appareils et dans différentes conditions de réseau. Les données de l'atelier se basent sur la simulation de chargement d'une page sur un seul appareil et d'un ensemble fixe de conditions réseau. Par conséquent, les valeurs peuvent différer. Pour en savoir plus, consultez Pourquoi les données des ateliers et des champs peuvent-elles être différentes ? (Que faire ?)

Pourquoi le 75e centile est-il choisi pour toutes les métriques ?

Notre objectif est de nous assurer que les pages fonctionnent correctement pour la majorité des utilisateurs. En nous concentrant sur les valeurs du 75e centile pour nos métriques, vous vous assurez que les pages offrent une bonne expérience utilisateur dans les conditions les plus difficiles pour l'appareil et le réseau. Pour en savoir plus, consultez Définir les seuils des métriques du rapport Signaux Web essentiels.

Quel est le bon score pour les données de l'atelier ?

Un score vert (plus de 90) est considéré comme satisfaisant, mais notez qu'une bonne qualité de données liées aux ateliers ne signifie pas nécessairement une bonne expérience utilisateur.

Pourquoi le score de performance varie-t-il de course à pied ? Je n'ai rien modifié sur ma page !

La variabilité de la mesure des performances est introduite via plusieurs canaux avec différents niveaux d'impact. Plusieurs sources courantes de variabilité des métriques sont la disponibilité du réseau local, la disponibilité du matériel client et les conflits de ressources client.

Pourquoi les données CrUX utilisateur réelles ne sont-elles pas disponibles pour une URL ou une origine ?

Le rapport d'expérience utilisateur Chrome agrège les données de vitesses réelles provenant des utilisateurs ayant activé l'option, et exige qu'une URL soit publique (explorable et indexable) et qu'elle dispose d'un nombre suffisant d'échantillons distincts pour obtenir une vue représentative et anonymisée des performances de l'URL ou de l'origine.

D'autres questions ?

Si vous avez une question précise et pertinente sur l'utilisation de PageSpeed Insights, posez-la en anglais sur Stack Overflow.

Si vous avez des commentaires ou des questions d'ordre général sur PageSpeed Insights, ou si vous souhaitez lancer une discussion générale, créez un fil de discussion dans la liste de diffusion.

Si vous avez des questions d'ordre général sur les métriques de signaux Web, créez un fil de discussion dans le groupe de discussion web-vitals-feedback.

Commentaires

Cette page vous a-t-elle été utile ?