Declaration officielle
Il n'est généralement pas recommandé d'utiliser le fichier robots.txt pour gérer les problèmes de contenu dupliqué. Le fichier robots.txt empêche Google de voir le tag Canonical qui pourrait résoudre le problème de contenu dupliqué. Il est préférable d'utiliser un tag Canonical pour indiquer les pages prioritaires à indexer.
5:51
Autres déclarations de cette vidéo 11 ▾
- 1:06 Importance d'une architecture de site accessible ⚠
- 3:10 Utilisation du NoIndex et Canonical ⚠
- 6:47 Compression des fichiers Sitemap ⚠
- 8:22 Impacts des tests A/B sur le SEO ⚠
- 12:31 Passage au HTTPS et impacts sur le trafic ⚠
- 16:14 Désaveu de liens nuisibles ⚠
- 21:16 Gestion du JavaScript pour le SEO ⚠
- 24:03 Impact des changements de protocole sur les titres de pages ⚠
- 27:13 Problèmes de ciblage géographique avec hreflang ⚠
- 32:54 Déindexation de pages avec No Index ⚠
- 38:15 Ratio texte/code et impact SEO ⚠
Declaration officielle du
(il y a 9 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 11
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 45 min · publiée le 23/02/2017
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.