Declaration officielle
Les directives dans robots.txt empêchent le crawl des URL mais ne les empêchent pas d'être indexées. Google peut indexer une URL non crawlée si elle reçoit de nombreux liens entrants.
24:24
Autres déclarations de cette vidéo 12 ▾
- 1:07 Évaluation du contenu fin et de mauvaise qualité ⚠
- 5:17 Impact du changement d'URL des images pour le SEO ⚠
- 9:52 Traitement des erreurs de balisage structuré ⚠
- 11:01 Personnalisation vs cloaking par Google ⚠
- 14:51 Rel=next et rel=prev retirés par Google ⚠
- 18:28 Impact des adresses IP multiples sur le référencement ⚠
- 26:21 Utilisation des balises hreflang pour le contenu dupliqué ⚠
- 31:35 Infographie convertie en HTML et transfert de PageRank ⚠
- 34:59 Importance de la qualité et de l'unicité du contenu ⚠
- 44:43 Impact du JavaScript sur le crawl de Google ⚠
- 52:12 Pop-ups intrusifs sur mobile ⚠
- 53:08 Google et les erreurs temporaires de type 503 ⚠
Declaration officielle du
(il y a 7 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 12
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 1h01 · publiée le 22/03/2019
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.