Declaration officielle
Le fichier robots.txt permet de définir des règles pour contrôler l'accès des robots d'indexation aux différentes parties d'un site web. Bien que non indispensable, son absence signifie que toutes les pages peuvent être explorées par défaut.
0:36
Autres déclarations de cette vidéo 4 ▾
Declaration officielle du
(il y a 6 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 4
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 7 min · publiée le 16/08/2019
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.