Declaration officielle
Autres déclarations de cette vidéo 9 ▾
- 2:06 Google adapte-t-il vraiment ses algorithmes en temps de crise ?
- 4:43 Le DMCA suffit-il vraiment à protéger votre contenu volé du duplicate content ?
- 8:30 Faut-il vraiment placer le balisage schema.org publisher sur toutes les pages de votre site ?
- 10:39 Faut-il vraiment des images de 1200px pour apparaître dans Google Discover ?
- 18:29 Le JavaScript peut-il transformer vos pages uniques en contenu dupliqué aux yeux de Google ?
- 20:44 Google lit-il vraiment le contenu des images pour les classer ?
- 36:11 Faut-il vraiment s'inquiéter des erreurs 404 qui s'accumulent dans la Search Console ?
- 39:23 Le contenu masqué en mobile-first est-il vraiment pris en compte par Google pour l'indexation ?
- 41:52 Les données structurées profitent-elles au SEO même sans rich snippets visibles ?
Google peut suivre les liens no-follow dans certains cas, contrairement à l'idée reçue qu'ils bloquent totalement le crawl. Les liens JavaScript avec on-click handlers ne sont pas reconnus comme de vrais liens lors du rendu. Concrètement, cela signifie qu'un no-follow n'est pas une garantie absolue de non-crawl, et que les liens JS mal implémentés sont invisibles pour Googlebot.
Ce qu'il faut comprendre
Le no-follow est-il encore un signal de blocage absolu ?
La déclaration de Mueller casse une idée solidement ancrée depuis des années : le no-follow bloquerait totalement le crawl d'une URL. La réalité est plus nuancée. Google peut décider de suivre un lien no-follow si d'autres signaux l'y incitent — par exemple, si l'URL est déjà connue via d'autres sources, ou si le contexte justifie un crawl exploratoire.
Cette flexibilité n'est pas documentée de manière exhaustive. Google utilise le no-follow comme une recommandation, pas comme une directive absolue. Autrement dit, vous suggérez à Googlebot de ne pas suivre le lien, mais il peut passer outre selon son propre arbitrage. Ce comportement a été confirmé par plusieurs praticiens qui observent des crawls sur des URLs exclusivement liées en no-follow.
Pourquoi les liens JavaScript on-click ne passent-ils pas ?
Les liens qui utilisent un on-click handler sans balise <a href="..."> ne sont pas considérés comme des liens par Googlebot. Même si le bot rend le JavaScript et exécute certains événements, il ne détecte pas un lien si celui-ci n'existe pas dans le DOM comme un élément <a> avec un attribut href valide.
Ce point est crucial pour les sites qui ont basculé vers des frameworks JavaScript modernes. Si vos menus, calls-to-action ou liens internes sont implémentés via des div ou button avec on-click, Google ne les voit simplement pas. Le rendu JS ne compense pas une architecture de liens défaillante. C'est une erreur fréquente sur les sites React, Vue ou Angular mal configurés.
Quelles sont les implications pour l'architecture de liens interne ?
Cette déclaration remet en question deux pratiques répandues. D'abord, l'usage du no-follow pour contrôler le budget crawl : si Google peut quand même suivre le lien, vous perdez une partie de votre levier de contrôle. Ensuite, l'implémentation de liens via JavaScript : si vous comptez sur le rendu JS pour que Google découvre vos pages, vous prenez un risque.
Le problème se pose surtout pour les sites avec des milliers de pages. Si vous no-followez des catégories entières en pensant qu'elles ne seront pas crawlées, mais que Google décide de les suivre quand même, vous vous retrouvez avec un crawl budget dispersé sur des pages que vous vouliez justement éviter. Côté JavaScript, la solution est simple : tout lien important doit exister dans le HTML initial, pas seulement après exécution du JS.
- Le no-follow n'est pas une garantie de non-crawl — Google peut suivre le lien si d'autres signaux l'y incitent.
- Les liens on-click ne sont pas reconnus comme des liens — ils n'apparaissent pas dans le graphe de liens de Google.
- Le rendu JavaScript ne remplace pas un href valide — même si le bot exécute le JS, il ne détecte pas un lien sans balise
<a>. - L'architecture de liens doit être pensée en HTML natif — le JavaScript peut enrichir l'expérience, pas remplacer les liens de base.
- Le contrôle du crawl via no-follow est moins fiable qu'avec robots.txt ou noindex — préférez ces méthodes pour bloquer vraiment une URL.
Avis d'un expert SEO
Cette déclaration est-elle cohérente avec ce qu'on observe sur le terrain ?
Oui, et c'est d'ailleurs ce qui la rend intéressante. Depuis des années, des SEO signalent des crawls sur des URLs exclusivement liées en no-follow. Google n'avait jamais vraiment clarifié ce comportement — la ligne officielle restait floue. Ici, Mueller confirme ce que les logs serveur montraient : le no-follow est un hint, pas une directive absolue.
Le problème, c'est qu'on ne sait toujours pas exactement dans quels cas Google décide de suivre un no-follow. Est-ce lié à la popularité de l'URL ? À la profondeur du site ? À un crawl exploratoire aléatoire ? [A vérifier] — Google ne donne aucun critère précis. Ce manque de transparence rend difficile toute stratégie de contrôle du crawl basée uniquement sur le no-follow.
Les liens JavaScript sont-ils vraiment invisibles dans tous les cas ?
La déclaration de Mueller est claire : les on-click handlers sans href ne sont pas des liens. Mais il faut nuancer. Si un site utilise un framework moderne avec un routeur client-side et que les liens sont générés dynamiquement avec des <a href="..."> valides dans le DOM après rendu, Google peut les voir.
Le vrai souci, c'est quand le lien n'existe que comme un event listener sur un élément non-sémantique. Par exemple, un <div onclick="goToPage('/produit')"> ne sera jamais crawlé. Même si Googlebot exécute le JavaScript, il ne détecte pas ce type de navigation. On le voit souvent sur des sites e-commerce qui ont migré vers React ou Vue sans penser à l'architecture des liens.
Faut-il abandonner le no-follow pour contrôler le crawl ?
Non, mais il faut le combiner avec d'autres leviers. Le no-follow reste utile pour signaler à Google qu'un lien n'est pas éditorial — c'est d'ailleurs son rôle initial. Mais si votre objectif est de bloquer strictement le crawl d'une URL, préférez robots.txt ou une balise noindex.
Soyons honnêtes : compter uniquement sur le no-follow pour gérer son budget crawl est risqué. Google peut décider de suivre le lien quand même, et vous n'avez aucun moyen de prévoir ce comportement. Si une page ne doit vraiment pas être crawlée, utilisez un Disallow dans robots.txt. Le no-follow reste pertinent pour les liens sortants, les UGC, ou les liens sponsorisés — mais pas comme unique mécanisme de contrôle interne.
Impact pratique et recommandations
Que faut-il faire concrètement avec les liens no-follow internes ?
Première étape : auditer vos liens internes no-follow. Si vous utilisez ce tag pour contrôler le budget crawl, vérifiez dans vos logs serveur si Google crawle quand même ces URLs. Chez beaucoup de clients, on constate que 20 à 30 % des URLs no-followées sont crawlées malgré tout. C'est du gaspillage de budget si ces pages n'ont aucune valeur SEO.
Si vous voulez vraiment bloquer une URL, basculez sur robots.txt ou noindex. Le no-follow reste utile pour signaler des liens non éditoriaux — commentaires, widgets, liens sortants — mais ne comptez pas dessus comme barrière de crawl. Et si vous no-followez des liens vers des pages importantes uniquement pour gérer la profondeur, repensez votre architecture : mieux vaut améliorer le maillage interne que de no-follower à tout-va.
Comment vérifier que vos liens JavaScript sont bien crawlables ?
Utilisez la Search Console et l'outil d'inspection d'URL pour voir le DOM rendu par Google. Si vos liens n'apparaissent pas comme des <a href="..."> valides dans le HTML rendu, ils sont invisibles. Vous pouvez aussi analyser le code source initial : tout lien critique doit exister avant l'exécution du JavaScript.
Concrètement, si vous utilisez un framework JS, assurez-vous que votre routeur génère des balises <a> avec href dans le DOM. Pas de div cliquables, pas de navigation uniquement pilotée par JavaScript sans href. Et testez avec un navigateur sans JS activé : si vos liens ne fonctionnent plus, Google ne les voit probablement pas non plus. C'est un test brutal mais efficace.
Quelles erreurs éviter dans la gestion des liens internes ?
Erreur classique : no-follower massivement pour « optimiser » le PageRank interne. Ce PageRank Sculpting est dépassé depuis plus de dix ans. Google ignore les liens no-follow pour le calcul du PageRank, donc vous ne gagnez rien — et vous risquez de bloquer des URLs qui devraient être crawlées. Mieux vaut construire une architecture de liens logique que de bidouiller avec du no-follow partout.
Autre piège : implémenter des menus ou des calls-to-action uniquement en JavaScript sans lien HTML de secours. On le voit sur des sites qui ont migré vers des frameworks modernes sans audit SEO préalable. Résultat : des pages orphelines, des catégories invisibles, un maillage interne effondré. Si vous refondez votre site, gardez toujours une couche de liens HTML natifs.
- Auditer les logs serveur pour identifier les URLs no-follow quand même crawlées
- Remplacer le no-follow par robots.txt ou noindex pour bloquer vraiment une URL
- Vérifier dans la Search Console que tous les liens importants existent comme
<a href>dans le DOM rendu - Tester la navigation du site avec JavaScript désactivé pour repérer les liens invisibles
- Bannir les div ou button cliquables sans href pour les liens internes critiques
- Revoir l'architecture de liens si vous no-followez massivement pour « contrôler » le crawl
❓ Questions frequentes
Un lien no-follow transmet-il du PageRank ?
Google crawle-t-il systématiquement les liens no-follow ?
Comment rendre un lien JavaScript crawlable ?
Faut-il no-follower les liens de pagination pour économiser le budget crawl ?
Quel est le meilleur moyen de bloquer le crawl d'une URL ?
🎥 De la même vidéo 9
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 54 min · publiée le 31/03/2020
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.