Declaration officielle
Assurez-vous que votre fichier robots.txt ne bloque pas accidentellement des pages que vous souhaitez faire indexer par Google. Si un fichier ou un répertoire est bloqué par robots.txt, il ne sera pas crawlé et cela peut affecter la visibilité de vos pages dans les résultats de recherche.
25:56
Autres déclarations de cette vidéo 9 ▾
- 2:10 Impact de la profondeur d'un contenu sur le ranking ⚠
- 4:15 Utilisation du sitemap pour améliorer le crawling ⚠
- 11:05 Changement de la date d'un article sans modification du contenu ⚠
- 51:20 Saisie et gestion des erreurs de crawl dans Search Console ⚠
- 53:20 Évaluation des pages AMP par rapport aux versions mobiles ⚠
- 61:20 Fréquence de mise à jour nécessaire pour le ranking ⚠
- 70:20 Problème d'indexation dû à un blocage réseau ou DNS ⚠
- 97:40 Inutilité de l'achat de domaines avec des mots-clés ⚠
- 115:20 Utilisation des headers HTTP pour signaler les mises à jour des fichiers ⚠
Declaration officielle du
(il y a 9 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 9
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 1h06 · publiée le 17/01/2017
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.