What does Google say about SEO? /
Quick SEO Quiz

Test your SEO knowledge in 3 questions

Less than 30 seconds. Find out how much you really know about Google search.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Official statement

Field data in PageSpeed Insights is delayed by about 30 days. To quickly verify if changes are improving performance, use lab data from testing tools, then wait 30 days to see the actual impact in the field data.
44:59
🎥 Source video

Extracted from a Google Search Central video

⏱ 1h01 💬 EN 📅 05/02/2021 ✂ 48 statements
Watch on YouTube (44:59) →
Other statements from this video 47
  1. 2:42 Les pages e-commerce à contenu dynamique sont-elles pénalisées par Google ?
  2. 2:42 Le contenu variable des pages e-commerce nuit-il au référencement ?
  3. 4:15 Pourquoi Google pénalise-t-il les catégories e-commerce trop larges ou incohérentes ?
  4. 4:15 Pourquoi Google pénalise-t-il les pages catégories sans cohérence thématique stricte ?
  5. 6:24 Comment Google choisit-il l'ordre d'affichage des images sur une même page ?
  6. 6:24 Google Images privilégie-t-il la qualité d'image au détriment de l'ordre d'affichage sur la page ?
  7. 8:00 Le machine learning sur les images est-il vraiment un facteur SEO secondaire ?
  8. 8:29 Le machine learning peut-il vraiment remplacer le texte pour référencer vos images ?
  9. 11:07 Pourquoi le trafic Google Discover disparaît-il du jour au lendemain ?
  10. 11:07 Pourquoi le trafic Google Discover s'effondre-t-il du jour au lendemain sans prévenir ?
  11. 13:13 Les pénalités Google fonctionnent-elles vraiment page par page sans niveaux fixes ?
  12. 13:13 Google applique-t-il vraiment des pénalités granulaires page par page plutôt que site-wide ?
  13. 15:21 Google peut-il masquer l'un de vos sites s'ils se ressemblent trop ?
  14. 15:21 Pourquoi Google omet-il certains sites pourtant uniques dans ses résultats ?
  15. 17:29 Une page de mauvaise qualité peut-elle contaminer tout votre site ?
  16. 17:29 Une homepage mal optimisée peut-elle vraiment pénaliser tout un site ?
  17. 18:33 Comment Google mesure-t-il les Core Web Vitals sur vos pages AMP et non-AMP ?
  18. 18:33 Google suit-il vraiment les Core Web Vitals des pages AMP et non-AMP séparément ?
  19. 20:40 Core Web Vitals : quelle version compte vraiment pour le ranking quand Google affiche l'AMP ?
  20. 22:18 Faut-il absolument matcher la requête dans le titre pour bien ranker ?
  21. 22:18 Faut-il privilégier un titre en correspondance exacte ou optimisé utilisateur ?
  22. 24:28 Les commentaires utilisateurs influencent-ils vraiment le référencement de vos pages ?
  23. 24:28 Les commentaires d'utilisateurs comptent-ils vraiment pour le référencement naturel ?
  24. 28:00 Les interstitiels intrusifs sont-ils vraiment un facteur de ranking négatif ?
  25. 28:09 Les interstitiels intrusifs peuvent-ils réellement faire chuter votre classement Google ?
  26. 29:09 Pourquoi Google convertit-il vos SVG en PNG et comment cela impacte-t-il votre SEO image ?
  27. 29:43 Pourquoi Google convertit-il vos SVG en images pixel en interne ?
  28. 31:18 Faut-il d'abord optimiser l'UX avant d'attaquer le SEO ?
  29. 31:44 Faut-il vraiment utiliser rel=canonical pour le contenu syndiqué ?
  30. 32:24 Le rel=canonical vers la source suffit-il vraiment à protéger le contenu syndiqué ?
  31. 34:29 Faut-il créer du contenu thématique large pour renforcer son autorité aux yeux de Google ?
  32. 34:29 Faut-il créer du contenu connexe pour renforcer sa réputation thématique ?
  33. 36:01 Combien de temps faut-il vraiment attendre pour qu'une action manuelle de liens soit levée ?
  34. 36:01 Pourquoi les actions manuelles liens peuvent-elles traîner plusieurs mois sans réponse ?
  35. 39:12 PageSpeed Insights reflète-t-il vraiment ce que Google voit de votre site ?
  36. 39:44 Pourquoi PageSpeed Insights et Googlebot affichent-ils des résultats différents sur votre site ?
  37. 41:20 Les Core Web Vitals : pourquoi vos tests PageSpeed Insights ne reflètent pas ce que Google mesure vraiment ?
  38. 45:59 Les Core Web Vitals : pourquoi seules les données terrain comptent-elles pour le ranking ?
  39. 45:59 Pourquoi Google ignore-t-il vos scores Lighthouse pour classer votre site ?
  40. 46:43 Comment Google groupe-t-il réellement vos pages pour évaluer les Core Web Vitals ?
  41. 47:03 Comment Google groupe-t-il vos pages pour mesurer les Core Web Vitals ?
  42. 51:24 Pourquoi Google continue-t-il de crawler des URLs 404 obsolètes sur votre site ?
  43. 51:54 Pourquoi Google revérifie-t-il vos anciennes URLs 404 pendant des années ?
  44. 57:06 Les redirections 301 transmettent-elles vraiment 100% du PageRank et des signaux de liens ?
  45. 57:06 Les redirections 301 transfèrent-elles vraiment tous les signaux de classement sans perte ?
  46. 59:51 Le ratio texte/HTML est-il vraiment inutile pour le référencement Google ?
  47. 59:51 Le ratio texte/HTML est-il vraiment inutile pour le référencement ?
📅
Official statement from (5 years ago)
TL;DR

The field data in PageSpeed Insights is delayed by 30 days compared to changes made on a site. To quickly check if your optimizations are working, you should rely on lab data, then wait a full month to see the actual impact in the field metrics. This delay can skew your understanding of performance if you're not prepared for it.

What you need to understand

What is the difference between field data and lab data in PageSpeed Insights?

Lab data is generated instantly by Lighthouse during a synthetic test under controlled conditions. It reflects the theoretical performance of your page at a given moment, with a simulated 4G connection and an emulated mobile device.

Field data, on the other hand, comes from the Chrome User Experience Report (CrUX). It aggregates real experiences from thousands of Chrome users over a rolling 28-day period. This second metric is what counts for ranking, but it's also the one that carries an unavoidable delay.

Why does this 30-day delay exist?

CrUX collects anonymized data from Chrome browsers for 28 consecutive days, then aggregates and publishes these statistics with a few additional days delay. If you deploy an optimization today, the first real visitors benefiting from it enter the data collection window, but previous visitors who experienced the old version continue to weigh in the average.

Only after 30 full days does 100% of the rolling window reflect the new version of your site. In the meantime, the field data mix old and new, which can muddle your understanding if you are looking for an immediate signal.

Which metrics are affected by this delay?

All Core Web Vitals metrics reported in PageSpeed Insights via CrUX experience this delay: Largest Contentful Paint (LCP), First Input Delay (FID) or Interaction to Next Paint (INP) depending on the version, and Cumulative Layout Shift (CLS).

Lab data, however, includes additional metrics like Time to Interactive or Speed Index, but they do not reflect the actual user experience. They serve as a leading indicator, not ground truth.

  • Field data (CrUX): 30-day delay, aggregated real data, impact on ranking
  • Lab data (Lighthouse): snapshot, synthetic conditions, useful for quick debugging
  • Rolling window: 28 days of collection + a few processing days
  • Affected metrics: LCP, FID/INP, CLS only for field data
  • Visibility in PSI: separate tab "Discover what your real users are experiencing" for CrUX

SEO Expert opinion

Is this statement consistent with field observations?

Yes, and it's a welcome reminder. We regularly see clients or colleagues panicking 48 hours after a deployment because the field data in PageSpeed Insights hasn’t budged an inch. The 30-day delay has long been documented in the CrUX FAQ, but it remains unknown or underestimated.

What complicates matters is that PageSpeed Insights displays these two datasets side by side without always clarifying that one is a theoretical snapshot and the other a rolling average over four weeks. The untrained practitioner will naturally compare the two, see a huge divergence, and wonder if their optimization is working. The answer: maybe, but you will need to wait.

In what cases does this delay pose a strategic problem?

If you are working on a low-traffic site, the field data may never appear in PageSpeed Insights, even after 30 days. CrUX requires a minimum volume of Chrome visitors to publish statistics — Google does not communicate a specific threshold, but it is estimated that several thousand page views per month are needed. [To be verified]: no official figure has been provided by Google regarding this minimum.

Another problematic scenario is highly seasonal sites. If you deploy an optimization in January and your peak traffic occurs in December, you risk missing representative data for months. The field data from January will not reflect the actual load the site will undergo during peak season.

What nuances should be added to this recommendation?

Mueller suggests using lab data for a quick check, then waiting 30 days. This is pragmatic, but incomplete. Lab data tests an isolated page, under ideal conditions, without considering third-party scripts, real network variations, or user behavior (scrolling, clicks). A good Lighthouse score does not guarantee a good CrUX.

There is a missing link: homegrown RUM (Real User Monitoring) tests, through tools like SpeedCurve, Datadog RUM, or even the web-vitals API in JavaScript. This allows you to track your Core Web Vitals in near real-time on your own analytics, without waiting for Google to aggregate. This is what enables the detection of a regression within hours, not in 30 days.

Note: If you deploy several successive optimizations within a 30-day window, you will never be able to isolate the impact of each in the CrUX field data. Plan your tests in spaced waves if you want to measure cleanly.

Practical impact and recommendations

What should you do concretely before and after an optimization deployment?

Before any deployment, take a snapshot of your current metrics: CrUX field data in PageSpeed Insights, but also in Search Console (Core Web Vitals report) and, if possible, in a proprietary RUM tool. Note the exact date of deployment.

Immediately after, run several Lighthouse tests on representative pages. If lab data does not improve, it means your optimization did not work as expected — no need to wait 30 days to find out. If lab data progresses, you have a quick positive signal, but not definitive.

How to interpret the discrepancies between lab and field data during the transition period?

Between Day+1 and Day+30, field data will evolve gradually, but not linearly. You may see a slight improvement on Day+15, followed by stagnation, and then a new leap on Day+28. This is normal: the rolling window gradually incorporates the new version.

If at the end of Day+30 the field data still do not match the lab data, there are several hypotheses: mobile vs desktop traffic (CrUX aggregates across all devices, Lighthouse tests mobile by default), third-party scripts not present in lab, CDN cache that takes time to purge, or worse, an invisible regression in lab but real on some user segments (older browsers, residual 3G connections). Investigate with a RUM.

What mistakes should be avoided during this waiting period?

Do not deploy five successive optimizations at three-day intervals. You will never be able to untangle what worked. Space your iterations by at least 30 days if you want to isolate the effects in the field data, or else accept to measure only the cumulative impact.

Another trap: relying solely on aggregated field data at the origin level (the entire site). PageSpeed Insights and CrUX allow filtering by URL or group of URLs if volume permits. A homepage may show excellent LCP while product pages remain catastrophic. Segment your analyses by page type.

  • Take a complete snapshot of CrUX metrics before deployment (PageSpeed Insights + Search Console)
  • Test immediately in lab after deployment to verify that the optimization works theoretically
  • Implement a homegrown RUM monitoring if possible, for near real-time tracking
  • Space optimization deployments by 30 days if you want to measure the isolated impact of each
  • Compare field data by page group (homepage, product sheets, blog) and not just at the site level
  • Wait 30 full days before drawing definitive conclusions on the real impact
The key: never rely on a single source of data. Use lab data for quick debugging, CrUX field data for 30-day truth, and ideally a proprietary RUM to fill the gap. If you find this orchestration complex or time-consuming, it might be wise to contact a specialized SEO agency that can instrument, analyze, and iterate on your Core Web Vitals methodically, without losing a month on each test.

❓ Frequently Asked Questions

Peut-on accélérer la remontée des field data CrUX en augmentant artificiellement le trafic ?
Non. Le CrUX collecte uniquement les données des utilisateurs Chrome réels qui acceptent la télémétrie. Générer du trafic bot ou synthetic ne changera rien. La fenêtre de 28 jours est incompressible.
Les données de laboratoire Lighthouse peuvent-elles suffire pour ranker sur Google ?
Non. Google utilise les field data CrUX pour le signal Core Web Vitals dans le ranking. Les lab data sont un outil de diagnostic, pas une métrique de classement.
Si mon site n'a pas de field data dans PageSpeed Insights, suis-je pénalisé en SEO ?
Google a déclaré que l'absence de données CrUX n'entraîne pas de pénalité directe, mais vous ne bénéficiez pas non plus du bonus Core Web Vitals. Le signal reste neutre.
Les field data CrUX incluent-elles les utilisateurs connectés en Wi-Fi ou uniquement mobile ?
Le CrUX agrège tous les utilisateurs Chrome, quel que soit le type de connexion (Wi-Fi, 4G, 5G, filaire) et le device (mobile, desktop, tablette). PageSpeed Insights affiche les données mobile par défaut, mais vous pouvez basculer sur desktop.
Faut-il optimiser en priorité pour les lab data ou les field data ?
Optimisez pour les field data, car ce sont elles qui comptent pour le ranking et l'expérience réelle. Utilisez les lab data comme indicateur avancé pour itérer rapidement, puis validez à 30 jours sur le terrain.
🏷 Related Topics
Domain Age & History AI & SEO JavaScript & Technical SEO Web Performance Search Console

🎥 From the same video 47

Other SEO insights extracted from this same Google Search Central video · duration 1h01 · published on 05/02/2021

🎥 Watch the full video on YouTube →

Related statements

💬 Comments (0)

Be the first to comment.

2000 characters remaining
🔔

Get real-time analysis of the latest Google SEO declarations

Be the first to know every time a new official Google statement drops — with full expert analysis.

No spam. Unsubscribe in one click.