Official statement
Other statements from this video 43 ▾
- 2:22 Pourquoi votre site a-t-il perdu du trafic après une Core Update sans avoir fait d'erreur ?
- 2:22 Les Core Web Vitals vont-ils vraiment bouleverser votre stratégie SEO ?
- 3:50 Une baisse de classement après une Core Update signifie-t-elle vraiment un problème avec votre site ?
- 3:50 Faut-il vraiment attendre avant d'optimiser les Core Web Vitals ?
- 3:50 Pourquoi Google repousse-t-il la migration complète vers le Mobile-First Index ?
- 7:07 Google peut-il vraiment repousser le Mobile-First Indexing indéfiniment ?
- 11:00 Les URLs avec fragments (#) dans Search Console : faut-il revoir votre stratégie de tracking et d'analyse ?
- 14:34 Pourquoi les chiffres entre Analytics, Search Console et My Business ne correspondent-ils jamais ?
- 14:35 Pourquoi vos métriques Google ne concordent-elles jamais entre Search Console, Analytics et Business Profile ?
- 16:37 Comment sont vraiment comptabilisés les clics FAQ dans Search Console ?
- 18:44 Les accordéons mobile et desktop sont-ils vraiment neutres pour le SEO ?
- 18:44 Le contenu masqué par accordéon mobile est-il vraiment indexé comme du contenu visible ?
- 29:45 Le rel=canonical via HTTP header fonctionne-t-il vraiment encore ?
- 30:09 L'en-tête HTTP rel=canonical fonctionne-t-il vraiment pour gérer les contenus dupliqués ?
- 31:00 Pourquoi Search Console affiche-t-il encore 'PC Googlebot' sur des sites récents alors que le Mobile-First Index est censé être la norme ?
- 31:02 Mobile-First Indexing par défaut : pourquoi Search Console affiche-t-il encore desktop Googlebot ?
- 33:28 Pourquoi Google insiste-t-il sur le contexte textuel dans les feedbacks Search Console ?
- 33:31 Les outils Search Console suffisent-ils vraiment à résoudre vos problèmes d'indexation ?
- 33:59 Pourquoi vos pages ne s'indexent-elles toujours pas après 60 jours dans Search Console ?
- 37:24 Pourquoi Google indexe-t-il parfois HTTP au lieu de HTTPS malgré la migration SSL ?
- 37:53 Faut-il vraiment cumuler redirections 301 ET canonical pour une migration HTTPS ?
- 39:16 Pourquoi votre sitemap échoue dans Search Console et comment débloquer réellement la situation ?
- 41:29 Votre marque disparaît des SERP sans raison : le feedback Google peut-il vraiment résoudre le problème ?
- 44:07 Faut-il privilégier un sous-domaine ou un nouveau domaine pour lancer un service ?
- 44:34 Sous-domaine ou nouveau domaine : pourquoi Google refuse-t-il de trancher pour le SEO ?
- 44:34 Les pénalités Google se propagent-elles vraiment entre domaine et sous-domaines ?
- 45:27 Les pénalités Google se propagent-elles vraiment entre domaine et sous-domaines ?
- 48:24 Faut-il vraiment ignorer le PageRank dans le choix entre domaine et sous-domaine ?
- 48:33 Les liens entre domaine racine et sous-domaines transmettent-ils réellement du PageRank ?
- 49:58 Faut-il vraiment s'inquiéter du contenu dupliqué par scraping ?
- 50:14 Peut-on relancer un ancien domaine sans être pénalisé pour le contenu dupliqué par des spammeurs ?
- 50:14 Faut-il vraiment signaler chaque URL de scraping via le Spam Report pour obtenir une action de Google ?
- 57:15 Faut-il vraiment rapporter le spam URL par URL pour aider Google ?
- 58:57 Pourquoi Google refuse-t-il d'afficher vos FAQ en rich results malgré un balisage parfait ?
- 59:54 Pourquoi Google n'affiche-t-il pas vos FAQ rich results malgré un balisage parfait ?
- 65:15 Peut-on ajouter des FAQ sur ses pages uniquement pour gagner des rich results en SEO ?
- 65:45 Peut-on ajouter une FAQ uniquement pour obtenir le rich result sans risquer de pénalité ?
- 67:27 Faut-il encore optimiser les balises rel=next/prev pour la pagination ?
- 67:58 Faut-il vraiment soumettre toutes les pages paginées dans le sitemap XML ?
- 70:10 Faut-il vraiment indexer toutes les pages de catégories pour optimiser son crawl budget ?
- 70:18 Faut-il vraiment arrêter de mettre les pages catégories en noindex ?
- 72:04 Le nombre de fichiers JavaScript ralentit-il vraiment l'indexation Google ?
- 72:24 Googlebot rend-il vraiment tout le JavaScript en une seule passe ?
Google treats URLs with fragments (#) differently depending on their display context. In standard search results, these URLs are canonicalized to the version without a fragment, but in sitelinks and rich results (FAQ, HowTo, etc.), the full URL with fragment is retained and appears as it is in Search Console. This distinction has direct implications for how you structure your internal links and analyze your performance in GSC.
What you need to understand
What is a URL fragment and how does Google typically handle it?
A URL fragment is the part after the hash symbol (#), traditionally used to create internal anchors within an HTML page. Example: example.com/page#section-2. Historically, Google ignores these fragments during indexing — the indexed page is example.com/page, period.
The engine considers the fragment to be a client-side navigation element, not a distinct resource. In standard SERPs, if multiple variants with different fragments point to the same page, Google automatically consolidates them. This is the canonicalization of fragments: only a single version appears, the one without #.
What happens in sitelinks and rich results?
Let’s be honest: this is where it gets tricky. In sitelinks (the secondary links that appear under certain results) and structured rich results like FAQs or HowTos, Google changes its behavior. The URL with its fragment is fully preserved and transmitted as is.
Specifically? If your FAQ markup points to example.com/help#question-3, it’s that exact URL that will be recorded in the performance report of Search Console. No merging, no canonicalization. Each variant becomes a distinct line in your data.
Why does this exception cause problems in practice?
This divergence complicates performance analysis. You end up with dozens of different lines in GSC for one single page, each showing a few scattered clicks. It's hard to measure the actual performance of your content when metrics are fragmented.
And it’s all the more treacherous since the behavior is context-dependent: same URL, different treatment depending on whether it appears in a standard result or a rich snippet. No apparent logic for the practitioner — just one more technical nuance to master.
- Fragments are ignored in standard search results (automatic canonicalization)
- Fragments are preserved in sitelinks and rich results (FAQ, HowTo, etc.)
- Search Console records each URL with fragment as a distinct entry in these contexts
- This difference in treatment complicates aggregated performance analysis of a page
- No impact on indexing itself, but on the granularity of reporting
SEO Expert opinion
Is this statement consistent with real-world observations?
Yes, and that’s precisely what’s frustrating. SEOs who meticulously mark up their structured FAQs with distinct anchors have been dealing with fragmented GSC data for a long time. This isn't new, but the official confirmation puts an end to hopes of Google correcting this behavior.
The problem is that this logic contradicts the very philosophy of canonicalization. If Google considers that fragments do not create unique content, why treat them as distinct URLs in some contexts? The likely answer: to preserve the UX of rich snippets, where a direct link to a specific section makes sense. But it's still shaky from an analytical perspective.
What gray areas remain in this statement?
Google does not specify all types of rich results involved. FAQs and HowTos are mentioned, but what about tables of contents, jump links in featured snippets, or anchors in the People Also Ask section? No exhaustive list. [To be checked] on a case-by-case basis on your own GSC data.
Another ambiguity: the impact on crawl budget. If Google keeps these fragmented URLs in its index of rich results, does it mean that it crawls them separately? Or are they simply extracted from the HTML rendering during the crawling of the parent page? The statement does not clarify this. For large sites, this is a question worth clarifying.
When does this rule really not apply?
Single Page Applications (SPA) that use fragments to manage client-side application states are out of scope. Google has long struggled with these architectures, and the recommendation remains to migrate to the History API to create true distinct URLs.
Similarly, fragments used for parameter tracking (example.com#utm_source=x) are never considered by Google, regardless of the display context. The engine simply ignores them — and that’s a good thing, otherwise chaos would reign in GSC.
Practical impact and recommendations
What actions should you take in your markup strategy?
If you use structured FAQ data or HowTo, anticipate that each anchor will create a distinct line in Search Console. Adapt your naming accordingly: clear and consistent fragment IDs (example.com/guide#step-1, not example.com/guide#a1x9z) facilitate later analysis.
For sites generating hundreds of FAQs with anchors automatically, you will end up with an unmanageable GSC report. In this case, two options: either manually consolidate the data via the API, or forego the anchors in your structured tags and point to the entire page instead. Less precise for the user, but cleaner analytically.
How can you leverage this specificity to your advantage?
Let’s be pragmatic: this behavior offers you unprecedented measurement granularity. You can now pinpoint exactly which questions in your FAQ are driving clicks from rich results. It’s a goldmine for optimizing your content: keep the performing questions, rephrase or remove the others.
Create a dedicated dashboard that aggregates URLs by prefix (all variants example.com/page# grouped together). This requires some scripting — Google Sheets with regex or a tool like Looker Studio — but it's doable. You thus get a consolidated view while retaining detail when necessary.
What mistakes should you absolutely avoid in this configuration?
Never create duplicate content by making sections accessible via both example.com/page#section and example.com/page/section. You unnecessarily fragment your link equity and further complicate analysis. Choose one architecture and stick to it.
Avoid dynamically generated or random fragments. If your CMS produces IDs like #faq-3a7b9c on each rebuild, your GSC data becomes unusable. Impose stable and predictable anchors in your setup.
- Audit your current structured data to identify all fragments used in FAQs, HowTos, etc.
- Standardize the naming of anchors (#question-1, #step-2, etc.) for future analysis
- Set up a specific GSC report that aggregates URLs by root (excluding fragment)
- Ensure that your fragments point to actual existing and visible sections in the HTML
- Document for the dev team that anchor IDs must remain stable in production
- Test the effective appearance of your rich results with fragments using the rich results testing tool
❓ Frequently Asked Questions
Les fragments d'URL affectent-ils le classement de mes pages dans Google ?
Si j'ai 20 questions FAQ avec ancres, vais-je avoir 20 lignes distinctes dans Search Console ?
Est-ce que je peux forcer Google à canonicaliser mes URLs avec fragments dans les rich results ?
Les ancres internes avec fragments aident-elles au référencement de sections spécifiques ?
Dois-je créer un sitemap XML incluant les URLs avec fragments ?
🎥 From the same video 43
Other SEO insights extracted from this same Google Search Central video · duration 1h14 · published on 04/06/2020
🎥 Watch the full video on YouTube →
💬 Comments (0)
Be the first to comment.