Declaration officielle
Après une migration avec redirections, Google continue de crawler périodiquement les anciennes URLs pour vérifier les redirections. Ce comportement est normal et ne constitue pas un gaspillage de crawl. Les anciennes URLs ne doivent pas être bloquées.
22:03
Autres déclarations de cette vidéo 18 ▾
- 1:02 Qu'est-ce que le déploiement fractionné de l'update Google implique pour le SEO ?
- 3:14 Comment les filtres regex non-concordants transforment-ils l'analyse SEO ?
- 3:47 Comment Search Console Insights révolutionne-t-il notre approche du contenu SEO ?
- 6:58 Comment améliorer la vérification d'indexation avec une recherche en guillemets ?
- 8:00 Pourquoi les redirections sont-elles essentielles lors d'une migration de site ?
- 11:22 Pourquoi l'indexation de Google Sites ne pose-t-elle vraiment aucun problème ?
- 16:58 Pourquoi les paramètres d'URL influencent-ils l'indexation différemment ?
- 19:05 Pourquoi privilégier les balises canonical aux paramètres URL pour le crawl ?
- 26:24 Pourquoi des URLs inconnues apparaissent-elles dans Search Console ?
- 28:29 Pourquoi vérifier tous vos templates pour les erreurs noindex ?
- 31:32 Pourquoi les classements fluctuent-ils même sans modification de contenu?
- 34:19 Pourquoi votre contenu AMP doit-il correspondre à la page canonique ?
- 36:38 Comment les signaux Page Experience influencent-ils le ranking dans Google News ?
- 38:51 Pourquoi Google ne commente pas publiquement les violations de guidelines SEO ?
- 42:39 Comment Google utilise-t-il réellement les spam reports pour améliorer ses algorithmes SEO ?
- 43:53 Pourquoi le contenu de qualité est-il le seul pilier SEO selon Google ?
- 46:54 Pourquoi Google dit-il que les sous-domaines et sous-répertoires n'impactent pas le SEO ?
- 49:09 Pourquoi text-overflow:ellipsis pose-t-il problème en SEO ?
Declaration officielle du
(il y a 4 ans)
⚠ Une declaration plus recente existe sur ce sujet
Pourquoi les anciennes URLs apparaissent-elles encore après une migration ?
Voir la declaration →
TL;DR
Google vérifie régulièrement les redirections d'anciennes URLs après une migration. Ce comportement n'est pas un gaspillage de ressources crawl. Ne bloquez pas ces anciennes URLs.
❓ Questions frequentes
Les anciennes URLs peuvent-elles être désindexées ?
Non, Google les maintien en crawl pour vérifier les redirections, pas pour désindexation.
Un blocage par robots.txt peut-il impacter le SEO ?
Oui, bloquer ces URLs empêche Google de vérifier correctement les redirections.
Ce comportement affecte-t-il le crawl budget ?
Non, cela fait partie du processus attendu et ne devrait pas consommer de façon excessive votre budget de crawl.
🎥 De la même vidéo 18
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 53 min · publiée le 24/06/2021
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.