Declaration officielle
La directive robots.txt est traitée séparément pour HTTP et HTTPS. Ainsi, il est possible d'autoriser ou de bloquer des URLs spécifiques au protocole, mais il vaut mieux utiliser des redirections pour indiquer la version souhaitée du contenu.
52:52
Autres déclarations de cette vidéo 8 ▾
- 1:04 Qualité des articles de presse sur les sites ⚠
- 4:16 Processus de désaveu de Google ⚠
- 5:16 Lien entre reddition de Penguin et récupération des classements ⚠
- 9:08 Diffusion de contenu à travers le web ⚠
- 11:41 Gestion des liens négatifs ⚠
- 12:19 Effort utile pour le nettoyage manuel des backlinks négatifs ⚠
- 16:10 Canonicalisation et données structurées ⚠
- 20:15 L'intérêt d'utiliser des données structurées ⚠
Declaration officielle du
(il y a 11 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 8
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 56 min · publiée le 05/05/2014
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.