What does Google say about SEO? /
Quick SEO Quiz

Test your SEO knowledge in 3 questions

Less than 30 seconds. Find out how much you really know about Google search.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Official statement

For Core Web Vitals, Google uses data from the Chrome User Experience Report and segments the site into groups. For specific URLs, Google finds the most appropriate group. If AMP pages have a separate template, their metrics will be used for those pages.
201:37
🎥 Source video

Extracted from a Google Search Central video

⏱ 996h50 💬 EN 📅 12/03/2021 ✂ 43 statements
Watch on YouTube (201:37) →
Other statements from this video 42
  1. 42:49 Peut-on vraiment utiliser hreflang entre plusieurs domaines distincts ?
  2. 48:45 Peut-on vraiment utiliser hreflang entre plusieurs domaines distincts ?
  3. 58:47 Faut-il vraiment éviter de dupliquer son contenu sur deux sites distincts ?
  4. 58:47 Faut-il vraiment éviter de créer plusieurs sites pour le même contenu ?
  5. 91:16 Faut-il vraiment indexer les pages de recherche interne de votre site ?
  6. 91:16 Faut-il bloquer les pages de recherche interne pour éviter l'indexation d'un espace infini ?
  7. 125:44 Les Core Web Vitals influencent-ils vraiment le budget de crawl de Google ?
  8. 125:44 Réduire la taille de page améliore-t-il vraiment le budget crawl ?
  9. 152:31 Le rapport de liens internes dans Search Console reflète-t-il vraiment l'état de votre maillage ?
  10. 152:31 Pourquoi le rapport de liens internes de Search Console ne montre-t-il qu'un échantillon ?
  11. 172:13 Faut-il vraiment s'inquiéter des chaînes de redirections pour le crawl Google ?
  12. 172:13 Combien de redirections Google suit-il réellement avant de fractionner le crawl ?
  13. 201:37 Comment Google segmente-t-il réellement vos Core Web Vitals par groupes de pages ?
  14. 248:11 AMP ou canonique : qui récolte vraiment les signaux SEO ?
  15. 257:21 Le Chrome UX Report compte-t-il vraiment vos pages AMP en cache ?
  16. 272:10 Faut-il vraiment rediriger vos URLs AMP lors d'un changement ?
  17. 272:10 Faut-il vraiment rediriger vos anciennes URLs AMP vers les nouvelles ?
  18. 294:42 AMP est-il vraiment neutre pour le classement Google ou cache-t-il un levier de visibilité invisible ?
  19. 296:42 AMP est-il vraiment un facteur de classement Google ou juste un ticket d'entrée pour certaines features ?
  20. 342:21 Pourquoi le contenu copié surclasse-t-il parfois l'original malgré le DMCA ?
  21. 342:21 Le DMCA est-il vraiment efficace pour protéger votre contenu dupliqué sur Google ?
  22. 359:44 Pourquoi le contenu copié surclasse-t-il votre contenu original dans Google ?
  23. 409:35 Pourquoi vos featured snippets disparaissent-ils sans raison technique ?
  24. 409:35 Les featured snippets et résultats enrichis fluctuent-ils vraiment par hasard ?
  25. 455:08 Le contenu masqué en responsive mobile est-il vraiment indexé par Google ?
  26. 455:08 Le contenu caché en CSS responsive est-il vraiment indexé par Google ?
  27. 563:51 Les structured data peuvent-elles vraiment forcer l'affichage d'un knowledge panel ?
  28. 563:51 Existe-t-il un balisage structuré qui garantit l'apparition d'un Knowledge Panel ?
  29. 583:50 Pourquoi la plupart des sites n'obtiennent-ils jamais de sitelinks dans Google ?
  30. 583:50 Peut-on vraiment forcer l'affichage des sitelinks dans Google ?
  31. 649:39 Les redirections 301 transfèrent-elles vraiment 100 % du jus SEO sans perte ?
  32. 649:39 Les redirections 301 transfèrent-elles vraiment 100% du PageRank et des signaux SEO ?
  33. 722:53 Faut-il vraiment supprimer ou rediriger les contenus expirés plutôt que de les garder indexables ?
  34. 722:53 Faut-il vraiment supprimer les pages expirées ou peut-on les laisser avec un label 'expiré' ?
  35. 859:32 Les mots-clés dans l'URL : facteur de ranking ou simple béquille temporaire ?
  36. 859:32 Les mots dans l'URL influencent-ils vraiment le classement Google ?
  37. 908:40 Faut-il vraiment ajouter des structured data sur les vidéos YouTube embarquées ?
  38. 909:01 Faut-il vraiment ajouter des données structurées vidéo quand on embed déjà YouTube ?
  39. 932:46 Les Core Web Vitals impactent-ils vraiment le SEO desktop ?
  40. 932:46 Pourquoi Google ignore-t-il les Core Web Vitals desktop dans son algorithme de classement ?
  41. 952:49 L'API et l'interface Search Console affichent-elles vraiment les mêmes données ?
  42. 963:49 Peut-on utiliser des templates différents par version linguistique sans pénaliser son SEO international ?
📅
Official statement from (5 years ago)
TL;DR

Google does not measure Core Web Vitals on a page-by-page basis, but segments your site into groups based on similar templates. For a given URL, it is the most relevant group that determines the metrics used for ranking. If your AMP pages use a distinct template, they form their own cluster with their own metrics — which can create significant performance discrepancies between versions.

What you need to understand

Why doesn't Google measure each page individually?

Google uses data from the Chrome User Experience Report (CrUX), which aggregates real user metrics from Chrome. The volume of data needed to reliably evaluate each URL would be enormous and statistically insignificant for low-traffic pages.

The solution? A template similarity grouping system. Google analyzes the HTML structure, loading behavior, and groups similar pages together. A typical e-commerce product page shares its metrics with all other product pages of the same template — not with the homepage or category pages.

How does Google determine the group to which a URL belongs?

The algorithm identifies the most appropriate group based on the URL pattern, its DOM structure, and its rendering behavior. It’s not your choice — it's Google’s automatic analysis.

Practically? If you have 10,000 product pages built on the same template, they will likely form a single group. The CWV metrics displayed in Search Console for a specific page reflect the average of the entire group, not that isolated page.

What happens with AMP versions?

This is where it gets complicated. If your AMP pages use a distinct template — which is often the case — they form their own measurement cluster. The CWV metrics of your AMPs do not influence those of your standard pages, and vice versa.

This separation can create paradoxical situations: AMP pages with excellent scores but canonical versions lagging behind. Or the reverse. Google evaluates each version based on its own group, meaning a poorly calibrated AMP strategy does not save slow desktop pages.

  • CWVs are measured by groups of similar pages, not individually
  • Google automatically determines group membership based on the template and structure
  • CrUX data aggregates real user metrics from Chrome for each cluster
  • AMP pages and standard pages form distinct groups if their templates differ
  • An isolated low-traffic page inherits metrics from its group, not its own performance

SEO Expert opinion

Is this statement consistent with what we observe in the field?

Absolutely. SEO professionals have noted for years that the CWV metrics displayed in Search Console do not exactly match the one-off tests on PageSpeed Insights or Lighthouse. The reason? These tools test an isolated URL, while Search Console displays data from the CrUX group.

We also see cases where a handful of slow pages within a template can degrade the metrics of thousands of similar URLs. If 5% of your product pages load slowly due to specific widgets, the whole group suffers — even the fast pages.

What gray areas remain in Google's explanation?

Google remains deliberately vague on the exact grouping criteria. [To be verified]: What is the tolerance for DOM variation before a page is excluded from the group? Do URL parameters influence segmentation? No precise official answers.

Another blind spot: the relative weight of pages in a group. If a product page accounts for 70% of a cluster's traffic and another for 0.01%, do they have the same impact on the average? Probably not, but Google does not document the weighting. [To be verified]

In what cases does this grouping system cause issues?

For sites with hybrid templates — pages that share a common base but have significant variations in content or widgets. A typical example: product pages where some include heavy videos while others do not. Google may group them together despite radically different performance.

Another tricky case: sites with little Chrome traffic. If your audience primarily uses Safari or Firefox, CrUX data will be skeletal or nonexistent. Google then has to rely on broader groups or estimates — which dilutes the relevance of the metrics.

Warning: Don’t waste time optimizing a single page hoping to see its CWV soar in Search Console. It’s the entire group that needs improvement — or isolate that page into a new template if it is strategic.

Practical impact and recommendations

What should you do concretely to optimize your Core Web Vitals?

The first step: identify your page groups in Search Console. Go to the "Core Web Vitals" tab, filter by device type, and see which URLs are grouped together. You’ll quickly see which templates are problematic.

Then, prioritize the groups based on their traffic volume and business importance. A group of 10,000 product pages accounting for 80% of revenue deserves more attention than a cluster of low-converting ancillary pages. Optimize the entire template, not isolated pages.

What critical mistakes should you avoid?

Do not test your CWVs solely with Lighthouse or PageSpeed Insights. These tools provide a synthetic lab measurement, not the real-world CrUX data that counts for ranking. Use them for diagnosis, but always validate with Search Console data or the CrUX API.

Another trap: believing that an AMP migration solves everything. If your AMP pages form a distinct group with good metrics but your canonical pages remain slow, Google may favor the standard pages in certain contexts — and you lose the advantage. Consistency between versions is essential.

How to check that your optimizations are actually working?

Monitor the evolution of the CrUX metrics over a rolling 28-day window in Search Console. CWVs do not update instantaneously — it takes several weeks for an improvement to be reflected in the aggregated group data.

Also, use the public CrUX API to directly query the data of your URL groups. This way, you can monitor the evolution without solely relying on the Search Console interface, which does not provide detailed historical exports.

  • Map your page groups in Search Console and identify priority templates
  • Optimize the entire template, not isolated pages — CWVs are measured at the group level
  • Validate your improvements with actual CrUX data, not just Lighthouse
  • If you are using AMP, ensure that AMP and standard versions have consistent performance
  • Monitor evolution over a minimum of 28 days — CWVs do not update instantaneously
  • Use the CrUX API for granular monitoring and historical data exports
Optimizing Core Web Vitals relies on a deep understanding of segmentation by groups. Identifying, prioritizing, and enhancing strategic templates — rather than spreading efforts page by page — makes all the difference. These technical optimizations can quickly become complex, especially on large-scale e-commerce or editorial architectures. If you lack internal resources or metrics stagnate despite your efforts, enlisting a web performance-focused SEO agency can significantly accelerate your results with thorough diagnostics and a tailored action plan.

❓ Frequently Asked Questions

Les Core Web Vitals sont-ils mesurés page par page ou par groupes ?
Google mesure les CWV par groupes de pages similaires, pas individuellement. Pour une URL donnée, c'est le groupe le plus approprié (basé sur le template) qui détermine les métriques utilisées dans le classement.
Comment Google décide-t-il qu'une page appartient à tel ou tel groupe ?
Google analyse automatiquement la structure HTML, le comportement de chargement et le pattern d'URL pour regrouper les pages similaires. Vous ne contrôlez pas directement cette segmentation.
Les pages AMP et les pages standard partagent-elles les mêmes métriques CWV ?
Non, si les pages AMP utilisent un template distinct, elles forment leur propre groupe avec des métriques CrUX séparées. Les performances AMP n'influencent pas les CWV des pages canoniques standard.
Pourquoi les métriques CWV de Search Console diffèrent-elles de PageSpeed Insights ?
Search Console affiche les données CrUX réelles agrégées du groupe sur 28 jours, tandis que PageSpeed Insights teste une URL isolée en conditions synthétiques. Les deux mesurent des choses différentes.
Combien de temps faut-il pour qu'une optimisation CWV se reflète dans Search Console ?
Les données CrUX sont calculées sur une fenêtre glissante de 28 jours. Une amélioration technique prend donc plusieurs semaines à se refléter dans les métriques agrégées du groupe.
🏷 Related Topics
Domain Age & History AI & SEO Mobile SEO Domain Name Web Performance

🎥 From the same video 42

Other SEO insights extracted from this same Google Search Central video · duration 996h50 · published on 12/03/2021

🎥 Watch the full video on YouTube →

Related statements

💬 Comments (0)

Be the first to comment.

2000 characters remaining
🔔

Get real-time analysis of the latest Google SEO declarations

Be the first to know every time a new official Google statement drops — with full expert analysis.

No spam. Unsubscribe in one click.