Official statement
Other statements from this video 42 ▾
- 42:49 Peut-on vraiment utiliser hreflang entre plusieurs domaines distincts ?
- 48:45 Peut-on vraiment utiliser hreflang entre plusieurs domaines distincts ?
- 58:47 Faut-il vraiment éviter de dupliquer son contenu sur deux sites distincts ?
- 58:47 Faut-il vraiment éviter de créer plusieurs sites pour le même contenu ?
- 91:16 Faut-il vraiment indexer les pages de recherche interne de votre site ?
- 91:16 Faut-il bloquer les pages de recherche interne pour éviter l'indexation d'un espace infini ?
- 125:44 Les Core Web Vitals influencent-ils vraiment le budget de crawl de Google ?
- 125:44 Réduire la taille de page améliore-t-il vraiment le budget crawl ?
- 152:31 Le rapport de liens internes dans Search Console reflète-t-il vraiment l'état de votre maillage ?
- 152:31 Pourquoi le rapport de liens internes de Search Console ne montre-t-il qu'un échantillon ?
- 172:13 Faut-il vraiment s'inquiéter des chaînes de redirections pour le crawl Google ?
- 172:13 Combien de redirections Google suit-il réellement avant de fractionner le crawl ?
- 201:37 Comment Google segmente-t-il réellement vos Core Web Vitals par groupes de pages ?
- 248:11 AMP ou canonique : qui récolte vraiment les signaux SEO ?
- 257:21 Le Chrome UX Report compte-t-il vraiment vos pages AMP en cache ?
- 272:10 Faut-il vraiment rediriger vos URLs AMP lors d'un changement ?
- 272:10 Faut-il vraiment rediriger vos anciennes URLs AMP vers les nouvelles ?
- 294:42 AMP est-il vraiment neutre pour le classement Google ou cache-t-il un levier de visibilité invisible ?
- 296:42 AMP est-il vraiment un facteur de classement Google ou juste un ticket d'entrée pour certaines features ?
- 342:21 Pourquoi le contenu copié surclasse-t-il parfois l'original malgré le DMCA ?
- 342:21 Le DMCA est-il vraiment efficace pour protéger votre contenu dupliqué sur Google ?
- 359:44 Pourquoi le contenu copié surclasse-t-il votre contenu original dans Google ?
- 409:35 Pourquoi vos featured snippets disparaissent-ils sans raison technique ?
- 409:35 Les featured snippets et résultats enrichis fluctuent-ils vraiment par hasard ?
- 455:08 Le contenu masqué en responsive mobile est-il vraiment indexé par Google ?
- 455:08 Le contenu caché en CSS responsive est-il vraiment indexé par Google ?
- 563:51 Les structured data peuvent-elles vraiment forcer l'affichage d'un knowledge panel ?
- 563:51 Existe-t-il un balisage structuré qui garantit l'apparition d'un Knowledge Panel ?
- 583:50 Pourquoi la plupart des sites n'obtiennent-ils jamais de sitelinks dans Google ?
- 583:50 Peut-on vraiment forcer l'affichage des sitelinks dans Google ?
- 649:39 Les redirections 301 transfèrent-elles vraiment 100 % du jus SEO sans perte ?
- 649:39 Les redirections 301 transfèrent-elles vraiment 100% du PageRank et des signaux SEO ?
- 722:53 Faut-il vraiment supprimer ou rediriger les contenus expirés plutôt que de les garder indexables ?
- 722:53 Faut-il vraiment supprimer les pages expirées ou peut-on les laisser avec un label 'expiré' ?
- 859:32 Les mots-clés dans l'URL : facteur de ranking ou simple béquille temporaire ?
- 859:32 Les mots dans l'URL influencent-ils vraiment le classement Google ?
- 908:40 Faut-il vraiment ajouter des structured data sur les vidéos YouTube embarquées ?
- 909:01 Faut-il vraiment ajouter des données structurées vidéo quand on embed déjà YouTube ?
- 932:46 Les Core Web Vitals impactent-ils vraiment le SEO desktop ?
- 932:46 Pourquoi Google ignore-t-il les Core Web Vitals desktop dans son algorithme de classement ?
- 952:49 L'API et l'interface Search Console affichent-elles vraiment les mêmes données ?
- 963:49 Peut-on utiliser des templates différents par version linguistique sans pénaliser son SEO international ?
Google does not measure Core Web Vitals on a page-by-page basis, but segments your site into groups based on similar templates. For a given URL, it is the most relevant group that determines the metrics used for ranking. If your AMP pages use a distinct template, they form their own cluster with their own metrics — which can create significant performance discrepancies between versions.
What you need to understand
Why doesn't Google measure each page individually?
Google uses data from the Chrome User Experience Report (CrUX), which aggregates real user metrics from Chrome. The volume of data needed to reliably evaluate each URL would be enormous and statistically insignificant for low-traffic pages.
The solution? A template similarity grouping system. Google analyzes the HTML structure, loading behavior, and groups similar pages together. A typical e-commerce product page shares its metrics with all other product pages of the same template — not with the homepage or category pages.
How does Google determine the group to which a URL belongs?
The algorithm identifies the most appropriate group based on the URL pattern, its DOM structure, and its rendering behavior. It’s not your choice — it's Google’s automatic analysis.
Practically? If you have 10,000 product pages built on the same template, they will likely form a single group. The CWV metrics displayed in Search Console for a specific page reflect the average of the entire group, not that isolated page.
What happens with AMP versions?
This is where it gets complicated. If your AMP pages use a distinct template — which is often the case — they form their own measurement cluster. The CWV metrics of your AMPs do not influence those of your standard pages, and vice versa.
This separation can create paradoxical situations: AMP pages with excellent scores but canonical versions lagging behind. Or the reverse. Google evaluates each version based on its own group, meaning a poorly calibrated AMP strategy does not save slow desktop pages.
- CWVs are measured by groups of similar pages, not individually
- Google automatically determines group membership based on the template and structure
- CrUX data aggregates real user metrics from Chrome for each cluster
- AMP pages and standard pages form distinct groups if their templates differ
- An isolated low-traffic page inherits metrics from its group, not its own performance
SEO Expert opinion
Is this statement consistent with what we observe in the field?
Absolutely. SEO professionals have noted for years that the CWV metrics displayed in Search Console do not exactly match the one-off tests on PageSpeed Insights or Lighthouse. The reason? These tools test an isolated URL, while Search Console displays data from the CrUX group.
We also see cases where a handful of slow pages within a template can degrade the metrics of thousands of similar URLs. If 5% of your product pages load slowly due to specific widgets, the whole group suffers — even the fast pages.
What gray areas remain in Google's explanation?
Google remains deliberately vague on the exact grouping criteria. [To be verified]: What is the tolerance for DOM variation before a page is excluded from the group? Do URL parameters influence segmentation? No precise official answers.
Another blind spot: the relative weight of pages in a group. If a product page accounts for 70% of a cluster's traffic and another for 0.01%, do they have the same impact on the average? Probably not, but Google does not document the weighting. [To be verified]
In what cases does this grouping system cause issues?
For sites with hybrid templates — pages that share a common base but have significant variations in content or widgets. A typical example: product pages where some include heavy videos while others do not. Google may group them together despite radically different performance.
Another tricky case: sites with little Chrome traffic. If your audience primarily uses Safari or Firefox, CrUX data will be skeletal or nonexistent. Google then has to rely on broader groups or estimates — which dilutes the relevance of the metrics.
Practical impact and recommendations
What should you do concretely to optimize your Core Web Vitals?
The first step: identify your page groups in Search Console. Go to the "Core Web Vitals" tab, filter by device type, and see which URLs are grouped together. You’ll quickly see which templates are problematic.
Then, prioritize the groups based on their traffic volume and business importance. A group of 10,000 product pages accounting for 80% of revenue deserves more attention than a cluster of low-converting ancillary pages. Optimize the entire template, not isolated pages.
What critical mistakes should you avoid?
Do not test your CWVs solely with Lighthouse or PageSpeed Insights. These tools provide a synthetic lab measurement, not the real-world CrUX data that counts for ranking. Use them for diagnosis, but always validate with Search Console data or the CrUX API.
Another trap: believing that an AMP migration solves everything. If your AMP pages form a distinct group with good metrics but your canonical pages remain slow, Google may favor the standard pages in certain contexts — and you lose the advantage. Consistency between versions is essential.
How to check that your optimizations are actually working?
Monitor the evolution of the CrUX metrics over a rolling 28-day window in Search Console. CWVs do not update instantaneously — it takes several weeks for an improvement to be reflected in the aggregated group data.
Also, use the public CrUX API to directly query the data of your URL groups. This way, you can monitor the evolution without solely relying on the Search Console interface, which does not provide detailed historical exports.
- Map your page groups in Search Console and identify priority templates
- Optimize the entire template, not isolated pages — CWVs are measured at the group level
- Validate your improvements with actual CrUX data, not just Lighthouse
- If you are using AMP, ensure that AMP and standard versions have consistent performance
- Monitor evolution over a minimum of 28 days — CWVs do not update instantaneously
- Use the CrUX API for granular monitoring and historical data exports
❓ Frequently Asked Questions
Les Core Web Vitals sont-ils mesurés page par page ou par groupes ?
Comment Google décide-t-il qu'une page appartient à tel ou tel groupe ?
Les pages AMP et les pages standard partagent-elles les mêmes métriques CWV ?
Pourquoi les métriques CWV de Search Console diffèrent-elles de PageSpeed Insights ?
Combien de temps faut-il pour qu'une optimisation CWV se reflète dans Search Console ?
🎥 From the same video 42
Other SEO insights extracted from this same Google Search Central video · duration 996h50 · published on 12/03/2021
🎥 Watch the full video on YouTube →
💬 Comments (0)
Be the first to comment.