Declaration officielle
Il est déconseillé d'utiliser robots.txt pour bloquer l'exploration de pages qui n'existent plus sur un site web, car cela empêche Google de constater que la page renvoie une erreur 404 ou 410, ralentissant le nettoyage de l'index.
21:25
Autres déclarations de cette vidéo 8 ▾
- 2:40 Introduction de l'index mobile-first ⚠
- 5:00 Aucune date précise pour l'index mobile-first ⚠
- 5:40 Mise à jour de la Search Console ⚠
- 8:04 AMP et PWA ne sont pas des facteurs SEO directs ⚠
- 13:02 Créer des propriétés HTTPS dès que possible ⚠
- 15:00 Gestion des redirections 301 lors d'une migration HTTPS ⚠
- 42:52 Les actions manuelles sont toujours signalées ⚠
- 44:20 Influence non directe de Google Ads sur le SEO ⚠
Declaration officielle du
(il y a 8 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 8
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 56 min · publiée le 05/09/2017
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.