Declaration officielle
Autres déclarations de cette vidéo 4 ▾
- 7:08 Faut-il vraiment limiter le nombre de ressources HTTP par page pour le SEO ?
- 13:49 Un taux de crawl faible est-il vraiment un problème pour votre SEO ?
- 14:51 Comment débloquer une page blanche dans Google avec la méthode de bissection ?
- 18:01 Un en-tête noindex sur une API empêche-t-il vraiment Googlebot de rendre la page ?
Google affirme identifier nativement le contenu généré par les utilisateurs (commentaires, forums, avis) sans qu'il soit nécessaire de le masquer du crawl. Tenter de le cacher via robots.txt, lazy-loading agressif ou JavaScript peut créer des problèmes techniques (blocage de ressources critiques, erreurs d'indexation). Pour un SEO praticien, cela signifie qu'il faut arrêter de se compliquer la vie avec des solutions techniques alambiquées et accepter que Google sait faire la part des choses entre votre contenu éditorial et celui de vos utilisateurs.
Ce qu'il faut comprendre
Google distingue-t-il vraiment le contenu utilisateur du contenu éditorial ?
Martin Splitt affirme que Google identifie nativement les commentaires utilisateurs et les traite différemment du contenu principal. Concrètement, l'algorithme serait capable de détecter les sections de commentaires, forums, avis clients sans que vous ayez besoin de les baliser spécifiquement ou de les exclure du crawl.
Cette capacité de distinction repose probablement sur plusieurs signaux : structure HTML répétitive, patterns de présentation (avatars, dates, boutons réponse), densité de contenu court et conversationnel, metadata implicite. Google n'a jamais détaillé précisément comment il fait — et c'est là que ça devient intéressant pour nous.
Pourquoi cette déclaration maintenant ?
Parce que trop de sites implémentent des solutions techniques complexes pour masquer les commentaires de Google, souvent suite à des mythes SEO persistants : peur de dilution du contenu, crainte du spam, volonté de contrôler le PageRank interne. Ces pratiques créent plus de problèmes qu'elles n'en résolvent.
Le risque principal ? Bloquer accidentellement des ressources critiques. Un robots.txt mal configuré qui vise à exclure /comments/ peut aussi bloquer /comments.css ou /comments.js si ces fichiers servent également ailleurs. Un lazy-loading trop agressif peut empêcher Google de crawler des URLs valides présentes dans les commentaires.
Quel impact sur le ranking si je laisse tout visible ?
Splitt affirme que laisser les commentaires visibles dans le HTML rendu n'apporte ni bénéfice ni préjudice SEO. Autrement dit, leur présence est neutre — Google les voit, les traite, mais ne les utilise pas pour évaluer la qualité de votre page principale.
Cette neutralité est cohérente avec ce qu'on observe : un article de blog avec 200 commentaires ne rank pas mieux qu'un article similaire sans commentaires. Par contre, un article avec des commentaires riches en mots-clés naturels peut attirer du trafic longue traîne si Google indexe ces segments — et c'est là que ça se complique un peu.
- Google identifie automatiquement les sections de commentaires utilisateurs sans balisage spécifique
- Masquer les commentaires créé plus de risques que de bénéfices (blocage ressources, erreurs crawl)
- Leur présence est neutre pour le ranking de la page principale
- Pas besoin de robots.txt, noindex, ou lazy-loading pour les exclure
- Concentrez vos efforts sur la qualité du contenu éditorial, pas sur des optimisations techniques marginales
Avis d'un expert SEO
Cette affirmation est-elle cohérente avec ce qu'on observe terrain ?
Oui et non. Sur des plateformes matures (WordPress, forums phpBB, sites e-commerce standards), Google semble effectivement capable de distinguer commentaires et contenu principal. On le voit dans les featured snippets : Google extrait rarement du texte de commentaire pour répondre à une requête, il privilégie le corps de l'article.
Mais sur des sites custom avec des structures HTML non standard, ou des SPAs (Single Page Applications) où tout est rendu en JavaScript, cette distinction devient moins fiable. J'ai vu des cas où Google indexait massivement des threads de commentaires comme des pages à part entière, créant du duplicate content involontaire. [A vérifier] : Google n'a jamais publié de benchmarks montrant le taux de précision de cette détection selon les types de sites.
Dans quels cas cette règle ne s'applique-t-elle pas ?
Premier cas évident : le spam massif non modéré. Si vos commentaires sont saturés de liens vers des sites douteux, Google peut effectivement dégrader la perception globale de votre page. Splitt dit que c'est neutre, mais dans la vraie vie, un site qui laisse passer 500 commentaires spammés par jour prend des claques algorithmiques.
Deuxième cas : les sites où les commentaires sont le contenu principal (Reddit, Stack Overflow, Quora). Là, Google n'applique pas cette logique de séparation — tout est du contenu éditorial. La déclaration de Splitt vise clairement les blogs, sites d'actualité, e-commerce, pas les plateformes conversationnelles.
Quelle est la vraie nuance que Google ne dit pas ?
Google affirme que laisser les commentaires visibles est neutre pour le ranking, mais omet de préciser que certains signaux utilisateurs peuvent quand même jouer : temps passé sur la page allongé par la lecture de commentaires, taux de rebond réduit si les commentaires apportent de la valeur, CTR organique boosté si les rich snippets affichent un nombre de commentaires.
Autrement dit, les commentaires n'impactent pas directement l'algo de contenu, mais peuvent influencer indirectement via des signaux comportementaux. Google ne fera jamais cette distinction publiquement parce qu'elle ouvre la porte à de la manipulation. [A vérifier] : aucune donnée officielle sur la pondération de ces signaux dans l'algo global.
Impact pratique et recommandations
Que faut-il faire concrètement avec les commentaires existants ?
Si vous avez actuellement des règles robots.txt qui bloquent /comments/ ou des directives noindex sur ces sections, envisagez de les retirer. Mais faites-le progressivement : retirez le blocage sur un échantillon de pages, surveillez Search Console pendant 2-3 semaines pour détecter d'éventuelles anomalies (pics de crawl, erreurs 404, indexation massive non souhaitée).
Pour les nouveaux sites ou refonte, la recommandation est simple : ne créez pas de mécanisme d'exclusion spécifique pour les commentaires. Laissez-les dans le HTML rendu, Google se débrouille. Concentrez votre énergie sur la modération qualitative plutôt que sur des gymnastiques techniques.
Quelles erreurs éviter absolument ?
Erreur classique : utiliser du lazy-loading JavaScript ultra-agressif qui charge les commentaires uniquement au scroll, en espérant que Google ne les verra pas. Non seulement Google exécute du JS maintenant (donc il les verra quand même), mais en plus vous risquez de bloquer des ressources critiques si votre script de commentaires partage des dépendances avec d'autres modules.
Autre piège : vouloir baliser les commentaires avec schema.org Comment pour "aider" Google. C'est inutile dans 99% des cas — Google détecte déjà la structure. Pire, un balisage mal implémenté peut générer des erreurs dans la Search Console et polluer vos rich snippets. Restez simple.
Comment vérifier que mon implémentation est correcte ?
Utilisez l'outil d'inspection d'URL dans Search Console pour voir le HTML rendu tel que Google le voit. Si vos commentaires apparaissent dans le DOM rendu, c'est bon. Si vous voyez des blocs vides ou des erreurs JS, vous avez un problème — mais ce n'est probablement pas lié aux commentaires spécifiquement.
Vérifiez également que vos URLs de commentaires (ex : /article#comment-123) ne génèrent pas d'indexation massive dans Google. Si c'est le cas, utilisez la balise canonical pour pointer vers l'URL principale de l'article, pas de noindex brutal qui risque de créer des incohérences.
- Retirer progressivement les règles robots.txt bloquant /comments/ ou /reviews/
- Supprimer les directives noindex sur les sections utilisateurs si elles existent
- Éviter le lazy-loading agressif qui bloque les commentaires du rendu initial
- Ne pas sur-optimiser avec du schema.org Comment sauf si vous avez un use case précis (rich snippets avis)
- Vérifier le HTML rendu dans Search Console pour confirmer que Google voit bien les commentaires
- Monitorer les métriques de crawl et d'indexation après modification pour détecter des anomalies
❓ Questions frequentes
Les commentaires utilisateurs comptent-ils dans le contenu total de ma page pour le ranking ?
Dois-je utiliser du schema.org Comment pour aider Google à distinguer les commentaires ?
Si je bloque les commentaires avec robots.txt, est-ce que je risque de bloquer autre chose par accident ?
Les commentaires spammés peuvent-ils pénaliser mon site même si Google les identifie comme contenu utilisateur ?
Faut-il utiliser lazy-loading pour les commentaires afin de ne pas ralentir le chargement de la page ?
🎥 De la même vidéo 4
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 19 min · publiée le 11/06/2020
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.