Declaration officielle
Si des URL sont bloquées par robots.txt, Google ne les analyse pas et ne voit pas de balises noindex ou de canoniques sur ces pages. Le contenu et les liens de ces pages bloquées par robots.txt restent ainsi invisibles pour Google.
13:45
Autres déclarations de cette vidéo 13 ▾
- 2:10 Pages d'accès versus pages de localisation ⚠
- 5:30 Notifications HTTPS dans Search Console ⚠
- 6:58 Ajout de marques dans les titres de page par Google ⚠
- 11:37 Réindexation après migration HTTPS ⚠
- 15:05 Gestion des pages de tri et navigation à facettes ⚠
- 16:57 Problèmes de spam et compétiteurs ⚠
- 19:44 Pages noindex et suivi des liens ⚠
- 25:19 Utilisation des bannières de désactivation des bloqueurs de pub ⚠
- 28:26 Crawling des sitemaps volumineux ⚠
- 30:01 Variations des descriptions méta ⚠
- 36:49 Changement de type de site de contenu éditorial à transactionnel ⚠
- 44:22 Importance de l'expérience utilisateur dans le contenu géolocalisé ⚠
- 53:55 Indexation des pages avec contenu affiché par JavaScript ⚠
Declaration officielle du
(il y a 8 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 13
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 57 min · publiée le 12/12/2017
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.