Declaration officielle
Le blocage du crawl se fait avec le fichier robots.txt. Les utilisateurs aléatoires du web peuvent toujours accéder au site web tandis que les moteurs de recherche bien comportés sauront ne pas y accéder.
Autres déclarations de cette vidéo 6 ▾
- □ Comment masquer votre site des résultats de recherche Google en restant accessible ?
- □ Faut-il vraiment utiliser un mot de passe pour protéger le contenu privé?
- □ Pourquoi le robots.txt ne garantit pas l'absence d'indexation ?
- □ Comment la balise noindex affecte-t-elle votre stratégie d'indexation SEO ?
- □ Comment la protection par mot de passe influence-t-elle le SEO du contenu privé ?
- □ Quand bloquer le crawl ou l'indexation pour optimiser votre SEO ?
Declaration officielle du
(il y a 4 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il bloquer le crawler GoogleOther dans votre fichier robots.txt ?
Voir la declaration →
TL;DR
Le fichier robots.txt bloque le crawl des moteurs de recherche disciplinés, mais pas l'accès aux utilisateurs ni aux outils moins coopératifs. Implication : S'assurer que le contenu sensible soit protégé par d'autres moyens si nécessaire.
🎥 De la même vidéo 6
Autres enseignements SEO extraits de cette même vidéo Google Search Central · publiée le 24/11/2021
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.