Declaration officielle
Utiliser robots.txt pour bloquer les pages empêche Google de les explorer, économisant ainsi de la bande passante. Noindex, en revanche, demande à Google d'explorer la page mais de ne pas l'indexer.
32:23
Autres déclarations de cette vidéo 10 ▾
- 3:13 Impact des redirections 301 sur le maintien du classement ⚠
- 4:49 Mises à jour algorithmiques et annonces publiques ⚠
- 9:59 Conséquences des liens d'affiliation sans valeur ajoutée ⚠
- 14:09 Fluctuations des classements et mises à jour ⚠
- 15:15 Différence de classement entre smartphones et feature phones ⚠
- 15:46 Impact des partenariats Google sur le référencement ⚠
- 17:23 Prévention du SEO négatif par Google ⚠
- 20:48 Vérification des sous-domaines dans Google Search Console ⚠
- 60:02 CSS non bloquant et référencement ⚠
- 65:27 L'impact du schema markup sur le classement ⚠
Declaration officielle du
(il y a 11 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 10
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 1h10 · publiée le 25/09/2014
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.