Official statement
To prevent the crawling of certain URLs with parameters, robots.txt is preferable to the URL Parameters tool because it works for all crawlers, not just Google. The URL Parameters tool is only useful in very specific and complex cases. Using canonical tags is often a better alternative.
35:52
Other statements from this video 17 ▾
- 1:02 Pourquoi intégrer Page Experience dans votre stratégie SEO desktop ?
- 2:08 Comment le rapport Page Experience pour desktop influence-t-il le SEO ?
- 4:03 Comment les clics sur 'Autres questions posées' influencent-ils vos stats SEO?
- 7:54 Faut-il s'inquiéter des variations d'URL pour le référencement ?
- 13:12 Comment maîtriser réellement l'indexation en quatre étapes selon Google ?
- 18:45 Pourquoi les rapports de couverture de Search Console sont-ils parfois à la traîne ?
- 20:08 Faut-il obligatoirement mentionner les sources externes pour AggregateRating ?
- 25:45 Pourquoi la relation entre sites d'un même groupe ne garantit-elle pas les avis SEO ?
- 27:47 Comment Google utilise-t-il réellement vos rapports de spam ?
- 32:29 Comment Google utilise-t-il réellement les Spam Reports pour améliorer ses algorithmes ?
- 39:18 Pourquoi miser sur le canonical plutôt que de bloquer le crawl ?
- 42:07 Pourquoi privilégier le DMCA pour le contenu copié plutôt que Search Console ?
- 44:00 Pourquoi les demandes DMCA pourraient-elles impacter votre strategie SEO ?
- 46:06 Pourquoi Google limite-t-il les demandes DMCA à 1000 URLs ?
- 48:41 Pourquoi optimisons-nous encore pour Google au lieu des lecteurs ?
- 54:27 Les campagnes de commentaires clients sont-elles devenues un piège à pénalité Google ?
- 56:02 Pourquoi l'attribut UGC est-il crucial pour vos liens de commentaires de blog ?
Official statement from
(4 years ago)
⚠ A more recent statement exists on this topic
Does blocking crawl with robots.txt actually prevent deindexation?
View statement →
TL;DR
Robots.txt is more effective than the URL Parameters tool for blocking the crawl of URLs. It is compatible with all crawlers and avoids overly complex use cases.
❓ Frequently Asked Questions
Est-ce que robots.txt bloque complètement l'indexation ?
Non, robots.txt empêche le crawl mais n'interdit pas l'indexation si une URL est déjà connue ou référencée ailleurs.
L'outil URL Parameters est-il totalement inutile alors ?
Pas totalement. Il reste pertinent pour les usages très spécifiques, mais rares, où une gestion fine des paramètres est nécessaire.
Quels sont les types de paramètres à bloquer avec robots.txt ?
Ciblez surtout les paramètres de tracking, de recherche ou de tri qui génèrent des URLs redondantes.
🎥 From the same video 17
Other SEO insights extracted from this same Google Search Central video · duration 1h01 · published on 27/01/2022
🎥 Watch the full video on YouTube →
💬 Comments (0)
Be the first to comment.