Declaration officielle
L'utilisation de robots.txt pour bloquer le contenu dupliqué n'est pas optimale, car cela empêche Google de reconnaître et de filtrer les doublons. Il est préférable d'avoir une structure d'URL propre et d'utiliser des 301 ou des balises canonicals.
19:14
Autres déclarations de cette vidéo 9 ▾
- 1:08 Impact des changements techniques et optimisation mobile ⚠
- 3:18 Importance des sitemaps et flux RSS ⚠
- 5:26 Utilisation des balises rel="canonical" ⚠
- 26:20 Blocage de ressources CSS et JavaScript ⚠
- 29:24 Changements fréquents dans le SEO ⚠
- 45:14 Usage des fichiers disavow ⚠
- 50:17 Impact des changements de contenu sur le SEO ⚠
- 52:28 Conseils pour les URLs et les balises métas ⚠
- 53:36 Relation entre utilisabilité et SEO ⚠
Declaration officielle du
(il y a 11 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 9
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 1h04 · publiée le 10/10/2014
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.