Declaration officielle
Traiter les paramètres d’URL comme relevant pour le contenu peut être utile dans le Search Console. Les bloquer via robots.txt signifierait que Google n'accédera pas à ces URL et pourrait les traiter individuellement.
16:25
Autres déclarations de cette vidéo 7 ▾
- 1:06 Gestion des limites de crawl par Googlebot ⚠
- 4:56 Conseil sur les redirections temporaires et permanentes ⚠
- 5:29 Traitement des balises noindex et canonical ⚠
- 7:42 Liens JavaScript vs HTML ⚠
- 9:24 UR3Ls canoniques et équivalence de contenu ⚠
- 27:43 Sécurité des contenus multilingues avec hreflang ⚠
- 32:28 Indexation de contenu double HTTP et HTTPS ⚠
Declaration officielle du
(il y a 9 ans)
⚠ Une declaration plus recente existe sur ce sujet
Pourquoi privilégier robots.txt pour bloquer le crawl ?
Voir la declaration →
🎥 De la même vidéo 7
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 58 min · publiée le 17/05/2016
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.