Declaration officielle
Le fichier robots.txt ne doit pas être utilisé pour résoudre les problèmes de canonicalisation, car les liens perdent leur PageRank lorsqu'ils pointent vers une URL bloquée par robots.txt.
52:55
Autres déclarations de cette vidéo 8 ▾
- 2:06 Utilité du fichier robots.txt ⚠
- 4:30 Indexation sans crawl ⚠
- 11:02 Priorité des directives robots.txt ⚠
- 15:52 Canoicalisation des pages de filtres ⚠
- 16:16 Messages d'erreurs ignorés ⚠
- 18:53 Outils Search Console pour robots.txt ⚠
- 22:14 Utilisation de Google Maps API ⚠
- 33:03 Ignorance des lignes de crawl-delay ⚠
Declaration officielle du
(il y a 10 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 8
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 55 min · publiée le 25/08/2015
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.