Official statement
Other statements from this video 49 ▾
- 1:38 Google suit-il vraiment les liens HTML masqués par du JavaScript ?
- 1:46 JavaScript peut-il masquer vos liens aux yeux de Google sans les détruire ?
- 3:43 Google combine-t-il vraiment les signaux de plusieurs liens pointant vers la même page ?
- 5:20 Les liens site-wide dans le menu et le footer diluent-ils vraiment le PageRank de vos pages stratégiques ?
- 6:22 Faut-il vraiment nofollow les liens site-wide vers vos pages légales pour optimiser le PageRank ?
- 7:24 Faut-il vraiment garder le nofollow sur vos liens footer et pages de service ?
- 10:10 Search Console Insights sans Analytics : pourquoi Google rend-il impossible l'utilisation solo ?
- 11:08 Le nofollow influence-t-il encore le crawl sans transmettre de PageRank ?
- 11:08 Le nofollow bloque-t-il vraiment l'indexation ou Google crawle-t-il quand même ces URLs ?
- 13:50 Pourquoi Google refuse-t-il de communiquer sur tous ses incidents d'indexation ?
- 15:58 Faut-il vraiment indexer toutes les pages paginées pour optimiser son SEO ?
- 15:59 Faut-il vraiment indexer toutes les pages de pagination pour optimiser son SEO ?
- 19:53 Les paramètres d'URL sont-ils encore un problème pour le référencement naturel ?
- 19:53 Les paramètres d'URL sont-ils vraiment devenus un non-sujet SEO ?
- 21:50 Google bloque-t-il vraiment l'indexation des nouveaux sites ?
- 23:56 Les liens dans les tweets embarqués influencent-ils vraiment votre SEO ?
- 25:33 Les sitemaps sont-ils vraiment indispensables pour l'indexation Google ?
- 26:03 Comment Google découvre-t-il vraiment vos nouvelles URLs ?
- 27:28 Pourquoi Google impose-t-il un canonical sur TOUTES les pages AMP, même standalone ?
- 27:40 Le rel=canonical est-il vraiment obligatoire sur toutes les pages AMP, même standalone ?
- 28:09 Faut-il vraiment déployer hreflang sur l'intégralité d'un site multilingue ?
- 28:41 Faut-il vraiment implémenter hreflang sur toutes les pages d'un site multilingue ?
- 29:08 AMP est-il vraiment un facteur de vitesse pour Google ?
- 29:16 Faut-il encore miser sur AMP pour optimiser la vitesse et le ranking ?
- 29:50 Pourquoi Google mesure-t-il les Core Web Vitals sur la version de page que vos visiteurs consultent réellement ?
- 30:20 Les Core Web Vitals mesurent-ils vraiment ce que vos utilisateurs voient ?
- 31:23 Faut-il manuellement désindexer les anciennes URLs de pagination après un changement d'architecture ?
- 31:23 Faut-il vraiment désindexer manuellement vos anciennes URLs de pagination ?
- 32:08 La pub sur votre site tue-t-elle votre SEO ?
- 32:48 La publicité sur un site nuit-elle vraiment au classement Google ?
- 34:47 Le rel=canonical en syndication est-il vraiment fiable pour contrôler l'indexation ?
- 34:47 Le rel=canonical protège-t-il vraiment votre contenu syndiqué du vol de ranking ?
- 38:14 Les alertes de sécurité dans Search Console bloquent-elles vraiment le crawl de Google ?
- 38:14 Un site hacké perd-il son crawl budget suite aux alertes de sécurité Google ?
- 39:20 Les liens dans les guest posts ont-ils vraiment perdu toute valeur SEO ?
- 39:20 Les liens issus de guest posts ont-ils vraiment une valeur SEO nulle ?
- 40:55 Pourquoi Google ignore-t-il les dates de modification identiques dans vos sitemaps ?
- 40:55 Pourquoi Google ignore-t-il les dates lastmod de votre sitemap XML ?
- 42:00 Faut-il vraiment mettre à jour la date lastmod du sitemap à chaque modification mineure ?
- 42:21 Un sitemap mal configuré réduit-il vraiment votre crawl budget ?
- 43:00 Un sitemap mal configuré peut-il vraiment réduire votre crawl budget ?
- 44:34 Faut-il vraiment choisir entre réduction du duplicate content et balises canonical ?
- 44:34 Faut-il vraiment éliminer tout le duplicate content ou miser sur le rel=canonical ?
- 45:10 Faut-il vraiment configurer la limite de crawl dans Search Console ?
- 45:40 Faut-il vraiment laisser Google décider de votre limite de crawl ?
- 47:08 Les redirections 301 en interne diluent-elles vraiment le PageRank ?
- 47:48 Les redirections 301 internes en cascade font-elles vraiment perdre du jus SEO ?
- 49:53 L'History API JavaScript peut-elle vraiment forcer Google à changer votre URL canonique ?
- 49:53 JavaScript et History API : Google peut-il vraiment traiter ces changements d'URL comme des redirections ?
Google combines anchor signals from multiple links pointing to the same URL on a page, not just the first one. The common belief that only the first link matters is outdated. In practice, you can place your rich anchors where it makes sense for the user without juggling the HTML order.
What you need to understand
Where does this belief that only the first link counts come from?
For years, the SEO community firmly believed that Google only considered the anchor text of the first link found in the DOM to a given URL. This conviction was based on empirical tests and old statements — at a time when the engine actually treated links in a more simplistic manner.
The reasoning made sense: to avoid anchor text stuffing on the same page. But this behavior has never been officially documented comprehensively. And SEOs continued to structure their internal linking by systematically placing the richest anchor first in the source code, even at the expense of usability.
What does Google actually say today?
John Mueller states that Google can combine signals from multiple links pointing to the same page. In other words, if you have three links to /product-x/ with three different anchors, the engine can aggregate this information to better understand the target page's content.
This does not mean that all links carry the same weight — position in the DOM, visibility, and semantic context likely play a role. But strict order is no longer the determining factor. You are no longer required to place your optimized anchor at the top of the page for it to be counted.
Why does this evolution change the game?
Because it frees SEO practitioners from an arbitrary technical constraint. You can now design your internal linking based on user experience, without counterproductive micro-optimizations. If your menu contains a generic link titled "Products" and a paragraph further down offers "Compare cordless vacuums," both anchors can contribute.
This also encourages a more natural approach to internal linking: varying anchors on the same page can enrich the overall semantic context. Provided, of course, that you don't fall into the opposite excess — multiplying unnecessary links degrades readability and dilutes internal PageRank.
- Google combines anchor signals from multiple links to the same URL on a page
- The order of links in the DOM is no longer the dominant criterion
- You can prioritize user experience without sacrificing SEO optimization
- Varying anchors can enrich semantic context, as long as you remain relevant
- This approach applies to internal linking as well as contextual links
SEO Expert opinion
Is this statement consistent with field observations?
Yes, overall. Tests conducted in recent years show that Google is getting better at handling multiple contexts. Sites that optimized only the first link did not consistently outperform those that prioritized overall semantic coherence.
That said, Mueller remains vague on how exactly Google combines these signals. Does it take a weighted average? Does it prioritize anchors closer to the top of the page? Anchors in editorial content rather than navigation? [To be verified] — no official data specifies the internal mechanics.
What nuances should be considered regarding this rule?
The first nuance: not all links are created equal. A link in a contextual paragraph, surrounded by semantically rich content, probably carries more weight than an isolated link in a footer. Position, visibility (above or below the fold), and context still play a role.
The second nuance: multiplying links to the same URL on a page remains risky. If you have five identical or nearly identical links, this may be perceived as internal spam. The idea is not to stuff but to vary intelligently when it is relevant for the user.
In what cases does this rule not fully apply?
On sites with complex or multi-level navigation, certain linking patterns may still privilege the first link simply due to DOM inheritance. If your main menu loads before the content (server-side rendering), that link may be crawled first — and therefore, counted differently.
Another edge case: pages with late JavaScript anchors. If your rich contextual links are injected only after user interaction, Google may not see them at all — and there, only the first "static" link counts. Always check what Googlebot actually crawls using the URL inspection tool.
Practical impact and recommendations
What actions should you take on your pages?
First action: audit your high-traffic pages to identify cases where you have multiple links to the same URL. Check if the anchors provide complementary semantic nuances — "buy a Dyson V12 vacuum" vs "compare Dyson models," for example.
Second action: stop manipulating HTML order to artificially place the richest anchor first. Focus on editorial coherence. If your menu contains a generic link and a contextual widget offers a detailed anchor, that's perfect — both contribute.
What mistakes should be avoided in implementation?
Don’t fall into the opposite excess: multiplying identical or redundant links to "strengthen" an anchor. Google can detect this pattern as internal spam, especially if the links are concentrated in the same block without additional value for the user.
Also avoid neglecting visual hierarchy. If your most important link is buried at the bottom of the page in tiny font, the user (and potentially Google) will consider it secondary. Combining signals does not mean that all links are equivalent — prominence matters.
How can you verify that your linking is optimized?
Use a crawler like Screaming Frog or Oncrawl to list all URLs with multiple incoming links from the same page. Export the anchors and ensure they provide relevant semantic variations, not just duplicates.
Also test with Google Search Console: inspect key pages and see which links Googlebot detects. If your rich anchors do not appear in the rendering, it means they are loaded too late or hidden — and there, only the first link still counts by default.
- Audit pages with multiple links to the same URL and check the complementarity of the anchors
- Stop manipulating HTML order to artificially place the optimized anchor first
- Avoid multiplying redundant links without user-added value
- Check with a crawler that anchors are correctly detected and semantically varied
- Test Googlebot’s rendering via Search Console to identify invisible links
- Maintain a coherent visual hierarchy — important links should remain prominent
❓ Frequently Asked Questions
Google prend-il en compte tous les liens vers une même URL ou seulement certains ?
Dois-je supprimer les liens multiples vers la même page pour éviter la dilution ?
L'ordre des liens dans le code HTML a-t-il encore une importance ?
Comment vérifier quels liens Google détecte réellement sur mes pages ?
Peut-on varier les ancres vers une même page pour renforcer la sémantique ?
🎥 From the same video 49
Other SEO insights extracted from this same Google Search Central video · duration 55 min · published on 21/08/2020
🎥 Watch the full video on YouTube →
💬 Comments (0)
Be the first to comment.