Declaration officielle
Le fichiers robots.txt est spécifique à chaque nom d'hôte et protocole. Le blocage sur un domaine principal ne bloque pas l'exploration de sous-domaines ou domaines différents. Un code 503 dans robots.txt peut temporairement stopper l'exploration.
5:15
Autres déclarations de cette vidéo 12 ▾
- 2:38 Transition de blog vers sous-domaine et impact SEO ⚠
- 3:10 Combinaison de schémas de données structurées ⚠
- 3:30 Commentaires de blog et contenu principal ⚠
- 9:40 Redirections et indexation ⚠
- 13:18 Améliorations du contenu et délais de prise en compte ⚠
- 15:18 Importance de la différenciation concurrentielle ⚠
- 19:25 Utilisation de données structurées JSON-LD ⚠
- 21:09 Google et le choix des URL canoniques ⚠
- 30:51 Effet des mises à jour majeures de contenu ⚠
- 31:50 Utilisation des caractères non anglophones dans les URL ⚠
- 38:35 Évolution de l'algorithme de recherche via l’apprentissage machine ⚠
- 47:25 L'importance d'optimiser les descriptions vidéo ⚠
Declaration officielle du
(il y a 6 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 12
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 57 min · publiée le 13/12/2019
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.