Declaration officielle
Pour des sites avec navigation à facettes, il est parfois approprié de bloquer ces pages via robots.txt, mais cela dépend du site. Utiliser le rel=canonical ou l'outil de gestion des paramètres dans Search Console peut être une alternative.
15:05
Autres déclarations de cette vidéo 13 ▾
- 2:10 Pages d'accès versus pages de localisation ⚠
- 5:30 Notifications HTTPS dans Search Console ⚠
- 6:58 Ajout de marques dans les titres de page par Google ⚠
- 11:37 Réindexation après migration HTTPS ⚠
- 13:45 Impact du blocage de robots.txt sur le crawl ⚠
- 16:57 Problèmes de spam et compétiteurs ⚠
- 19:44 Pages noindex et suivi des liens ⚠
- 25:19 Utilisation des bannières de désactivation des bloqueurs de pub ⚠
- 28:26 Crawling des sitemaps volumineux ⚠
- 30:01 Variations des descriptions méta ⚠
- 36:49 Changement de type de site de contenu éditorial à transactionnel ⚠
- 44:22 Importance de l'expérience utilisateur dans le contenu géolocalisé ⚠
- 53:55 Indexation des pages avec contenu affiché par JavaScript ⚠
Declaration officielle du
(il y a 8 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment bloquer la navigation à facettes dans robots.txt ?
Voir la declaration →
🎥 De la même vidéo 13
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 57 min · publiée le 12/12/2017
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.