Declaration officielle
Autres déclarations de cette vidéo 49 ▾
- 1:38 Google suit-il vraiment les liens HTML masqués par du JavaScript ?
- 1:46 JavaScript peut-il masquer vos liens aux yeux de Google sans les détruire ?
- 3:43 Faut-il vraiment optimiser le premier lien d'une page pour le SEO ?
- 3:43 Google combine-t-il vraiment les signaux de plusieurs liens pointant vers la même page ?
- 5:20 Les liens site-wide dans le menu et le footer diluent-ils vraiment le PageRank de vos pages stratégiques ?
- 6:22 Faut-il vraiment nofollow les liens site-wide vers vos pages légales pour optimiser le PageRank ?
- 7:24 Faut-il vraiment garder le nofollow sur vos liens footer et pages de service ?
- 10:10 Search Console Insights sans Analytics : pourquoi Google rend-il impossible l'utilisation solo ?
- 11:08 Le nofollow bloque-t-il vraiment l'indexation ou Google crawle-t-il quand même ces URLs ?
- 13:50 Pourquoi Google refuse-t-il de communiquer sur tous ses incidents d'indexation ?
- 15:58 Faut-il vraiment indexer toutes les pages paginées pour optimiser son SEO ?
- 15:59 Faut-il vraiment indexer toutes les pages de pagination pour optimiser son SEO ?
- 19:53 Les paramètres d'URL sont-ils encore un problème pour le référencement naturel ?
- 19:53 Les paramètres d'URL sont-ils vraiment devenus un non-sujet SEO ?
- 21:50 Google bloque-t-il vraiment l'indexation des nouveaux sites ?
- 23:56 Les liens dans les tweets embarqués influencent-ils vraiment votre SEO ?
- 25:33 Les sitemaps sont-ils vraiment indispensables pour l'indexation Google ?
- 26:03 Comment Google découvre-t-il vraiment vos nouvelles URLs ?
- 27:28 Pourquoi Google impose-t-il un canonical sur TOUTES les pages AMP, même standalone ?
- 27:40 Le rel=canonical est-il vraiment obligatoire sur toutes les pages AMP, même standalone ?
- 28:09 Faut-il vraiment déployer hreflang sur l'intégralité d'un site multilingue ?
- 28:41 Faut-il vraiment implémenter hreflang sur toutes les pages d'un site multilingue ?
- 29:08 AMP est-il vraiment un facteur de vitesse pour Google ?
- 29:16 Faut-il encore miser sur AMP pour optimiser la vitesse et le ranking ?
- 29:50 Pourquoi Google mesure-t-il les Core Web Vitals sur la version de page que vos visiteurs consultent réellement ?
- 30:20 Les Core Web Vitals mesurent-ils vraiment ce que vos utilisateurs voient ?
- 31:23 Faut-il manuellement désindexer les anciennes URLs de pagination après un changement d'architecture ?
- 31:23 Faut-il vraiment désindexer manuellement vos anciennes URLs de pagination ?
- 32:08 La pub sur votre site tue-t-elle votre SEO ?
- 32:48 La publicité sur un site nuit-elle vraiment au classement Google ?
- 34:47 Le rel=canonical en syndication est-il vraiment fiable pour contrôler l'indexation ?
- 34:47 Le rel=canonical protège-t-il vraiment votre contenu syndiqué du vol de ranking ?
- 38:14 Les alertes de sécurité dans Search Console bloquent-elles vraiment le crawl de Google ?
- 38:14 Un site hacké perd-il son crawl budget suite aux alertes de sécurité Google ?
- 39:20 Les liens dans les guest posts ont-ils vraiment perdu toute valeur SEO ?
- 39:20 Les liens issus de guest posts ont-ils vraiment une valeur SEO nulle ?
- 40:55 Pourquoi Google ignore-t-il les dates de modification identiques dans vos sitemaps ?
- 40:55 Pourquoi Google ignore-t-il les dates lastmod de votre sitemap XML ?
- 42:00 Faut-il vraiment mettre à jour la date lastmod du sitemap à chaque modification mineure ?
- 42:21 Un sitemap mal configuré réduit-il vraiment votre crawl budget ?
- 43:00 Un sitemap mal configuré peut-il vraiment réduire votre crawl budget ?
- 44:34 Faut-il vraiment choisir entre réduction du duplicate content et balises canonical ?
- 44:34 Faut-il vraiment éliminer tout le duplicate content ou miser sur le rel=canonical ?
- 45:10 Faut-il vraiment configurer la limite de crawl dans Search Console ?
- 45:40 Faut-il vraiment laisser Google décider de votre limite de crawl ?
- 47:08 Les redirections 301 en interne diluent-elles vraiment le PageRank ?
- 47:48 Les redirections 301 internes en cascade font-elles vraiment perdre du jus SEO ?
- 49:53 L'History API JavaScript peut-elle vraiment forcer Google à changer votre URL canonique ?
- 49:53 JavaScript et History API : Google peut-il vraiment traiter ces changements d'URL comme des redirections ?
Google peut désormais crawler et indexer des URLs découvertes via des liens nofollow, mais ce crawl ne garantit aucune transmission de PageRank ou de signaux de classement. Le nofollow est devenu un hint pour le crawl, pas une directive absolue. Concrètement, un lien nofollowé peut servir à la découverte d'une page sans pour autant lui conférer d'autorité — une nuance essentielle pour gérer le budget crawl et la stratégie de maillage.
Ce qu'il faut comprendre
Pourquoi Google a-t-il modifié le comportement du nofollow pour le crawl ?
Historiquement, le nofollow bloquait à la fois le crawl et la transmission de PageRank. Depuis plusieurs années, Google a progressivement transformé cet attribut en hint : une indication que Googlebot peut choisir de suivre ou d'ignorer. L'objectif ? Gagner en flexibilité pour découvrir de nouvelles URLs, même si le webmaster ne souhaite pas transmettre d'autorité.
Cette évolution s'inscrit dans une logique où Google veut maximiser sa couverture d'indexation sans pour autant diluer les signaux de ranking. En d'autres termes, le moteur se donne le droit d'explorer ce qui lui semble pertinent, indépendamment des instructions strictes du site. C'est cohérent avec sa volonté de contrôle total sur le graphe du web.
Que signifie concrètement « hint pour le crawl » ?
Un hint, c'est une suggestion — pas un ordre. Quand tu poses un nofollow sur un lien, tu indiques à Google que tu ne recommandes pas cette URL, mais le crawler peut décider de la visiter quand même si elle lui semble utile. En pratique, ça veut dire qu'une URL découverte via nofollow peut apparaître dans l'index.
Mais attention : l'indexation ne signifie pas transmission de PageRank. C'est là que ça coince pour beaucoup de praticiens. Une page peut être crawlée et indexée sans recevoir le moindre signal d'autorité du lien qui la pointe. Google sépare désormais clairement découverte et évaluation qualitative.
Le PageRank est-il totalement bloqué par nofollow ou existe-t-il des exceptions ?
Officiellement, la transmission de PageRank via nofollow reste nulle. Google affirme que ce signal de classement ne passe pas par ces liens, même si le crawl est autorisé. Pourtant, sur le terrain, certains SEO observent que des pages nofollowées depuis des sources à forte autorité semblent mieux se positionner que d'autres sans backlinks du tout.
Est-ce du PageRank indirect, un effet de « trust » diffus, ou simplement le bruit statistique ? [A vérifier] — Google reste flou sur les mécanismes exacts. Ce qu'on sait, c'est qu'un lien nofollow peut toujours générer du trafic direct et donc des signaux comportementaux positifs, ce qui compte aussi dans l'équation ranking.
- Le nofollow est devenu un hint, pas une directive bloquante pour le crawl
- Une URL découverte via nofollow peut être indexée, mais sans transmission automatique de PageRank
- Google sépare découverte (crawl) et évaluation qualitative (ranking)
- Les signaux comportementaux issus de liens nofollow (trafic, engagement) peuvent influencer indirectement le classement
- La documentation officielle reste vague sur les cas limites et les exceptions possibles
Avis d'un expert SEO
Cette déclaration est-elle cohérente avec les observations terrain ?
Soyons honnêtes : la théorie de Google ne colle pas toujours avec la pratique. On observe régulièrement des pages qui rankent mieux après avoir reçu des mentions nofollowées depuis des sites à forte autorité — Wikipedia, forums modérés, annuaires de qualité. Si le PageRank ne passait strictement pas, ces corrélations ne devraient pas exister.
Plusieurs hypothèses. Soit Google ment (peu probable), soit il y a d'autres signaux que le PageRank pur qui transitent malgré le nofollow : trust, topicalité, co-citation. Ou alors le nofollow n'est appliqué qu'à 80-90 % du jus, et le reste fuite quand même. Impossible à trancher sans données internes. Ce qu'on sait, c'est que zéro lien nofollow = moins bon qu'un profil mixte avec du nofollow naturel.
Quels risques concrets pour la gestion du budget crawl ?
Si Googlebot peut désormais crawler des URLs découvertes via nofollow, ça veut dire que ton budget crawl n'est plus entièrement sous ton contrôle. Tu pensais bloquer certaines sections avec du nofollow ? Google peut quand même les visiter, surtout si elles génèrent du trafic ou des signaux d'engagement.
Résultat : tu peux te retrouver avec des pages crawlées que tu ne voulais pas prioriser. robots.txt et meta robots restent les seules barrières dures — le nofollow n'en est plus une. Si tu gères un gros site avec des milliers de facettes ou de paramètres, compte sur disallow et non sur nofollow pour protéger ton crawl budget.
Faut-il encore utiliser nofollow pour sculpter le PageRank ?
Le PageRank sculpting tel qu'on le pratiquait avant 2009 est mort — Google l'a tué en faisant « fuiter » le jus même sur les liens nofollow. Mais utiliser nofollow pour signaler des liens de faible confiance reste pertinent : commentaires, contenu généré par les utilisateurs, liens affiliés. Là, tu protèges ta réputation, pas ton jus.
Par contre, nofollowtiser systématiquement tes liens internes pour « forcer » Googlebot vers certaines pages ? Inutile et risqué. Tu perds du maillage naturel sans rien gagner en crawl prioritaire. Mieux vaut jouer sur la profondeur de clic, l'architecture en silo et les sitemaps XML. Le nofollow, c'est pour l'externe et le douteux — pas pour piloter ton propre site.
Impact pratique et recommandations
Que faut-il faire concrètement avec les liens nofollow internes et externes ?
Première règle : arrête de nofollowtiser tes liens internes stratégiques. Si tu veux qu'une page rank, elle doit recevoir du jus interne via des liens dofollow. Le nofollow interne ne sert qu'à isoler du contenu bas de gamme (CGU, mentions légales, pages de connexion) ou à gérer des contenus à risque (forums, espaces utilisateurs).
Pour l'externe, garde le nofollow sur les liens que tu ne contrôles pas : commentaires, UGC, widgets, partenaires douteux. Mais si tu cites une source fiable et pertinente, un dofollow envoie un signal de confiance à Google — et ça peut même améliorer la topicalité de ta page. Le nofollow systématique sur tous les liens sortants est une pratique datée et contre-productive.
Comment vérifier que ton site ne subit pas de crawl parasite via nofollow ?
Ouvre Google Search Console, section Statistiques d'exploration. Analyse les URLs crawlées sur les 90 derniers jours et compare avec ton arborescence cible. Si tu vois des pages que tu pensais bloquées par nofollow apparaître dans les logs, c'est que Googlebot a décidé de les visiter quand même.
Autre technique : croise les données de ton serveur (logs Apache/Nginx) avec Search Console. Identifie les URLs nofollowées qui reçoivent des visites de Googlebot. Si elles consomment du crawl budget sans apporter de valeur SEO, passe au cran supérieur : disallow dans robots.txt ou meta noindex. Le nofollow seul ne suffit plus à les bloquer.
Quelles erreurs éviter avec la nouvelle interprétation du nofollow ?
Erreur numéro un : croire que nofollow = invisibilité totale pour Google. Une URL nofollowée peut être indexée, analysée, et même classée si elle reçoit d'autres signaux (mentions, trafic direct, backlinks dofollow indirects). Ne compte pas sur nofollow pour cacher du contenu sensible ou dupliqué.
Deuxième erreur : supprimer tous les liens nofollow en pensant récupérer du jus. Si ces liens pointent vers du contenu bas de gamme ou spammy, tu risques de diluer ton trust global. Le nofollow reste un outil de signalisation de confiance — ne le jette pas par la fenêtre. Troisième piège : ignorer le budget crawl. Sur un gros site, chaque visite de Googlebot compte. Si des pages nofollowées sont crawlées massivement, ajuste ta stratégie robots.txt.
- Audite tes liens internes nofollowés — retire l'attribut sur les pages stratégiques
- Conserve le nofollow sur les contenus à risque (UGC, commentaires, widgets externes)
- Vérifie dans Search Console les URLs crawlées via nofollow et ajuste robots.txt si nécessaire
- Ne compte plus sur nofollow pour bloquer le crawl — utilise disallow ou noindex
- Croise logs serveur et Search Console pour détecter du crawl parasite
- Teste un profil de liens sortants mixte (dofollow vers sources fiables, nofollow vers le reste)
❓ Questions frequentes
Un lien nofollow peut-il encore aider au référencement ?
Dois-je retirer le nofollow de mes liens internes ?
Le nofollow bloque-t-il encore le crawl ?
Faut-il nofollowtiser tous les liens sortants ?
Comment savoir si Google crawle mes pages nofollowées ?
🎥 De la même vidéo 49
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 55 min · publiée le 21/08/2020
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.