Declaration officielle
Googlebot n'utilise pas la directive 'crawl-delay' des fichiers robots.txt, car elle est peu efficace avec les serveurs modernes qui peuvent gérer plus de trafic. À la place, Google adapte automatiquement sa fréquence de crawl en fonction de la réactivité du serveur. Si un serveur montre des signes de surcharge ou d'erreur, Googlebot réduit sa fréquence de crawl.
0:37
Autres déclarations de cette vidéo 3 ▾
Declaration officielle du
(il y a 8 ans)
⚠ Une declaration plus recente existe sur ce sujet
Comment les directives spécifiques dans le fichier robots.txt influencent-elles ...
Voir la declaration →
🎥 De la même vidéo 3
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 1 min · publiée le 21/12/2017
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.