Official statement
Other statements from this video 47 ▾
- 2:42 Les pages e-commerce à contenu dynamique sont-elles pénalisées par Google ?
- 2:42 Le contenu variable des pages e-commerce nuit-il au référencement ?
- 4:15 Pourquoi Google pénalise-t-il les catégories e-commerce trop larges ou incohérentes ?
- 4:15 Pourquoi Google pénalise-t-il les pages catégories sans cohérence thématique stricte ?
- 6:24 Comment Google choisit-il l'ordre d'affichage des images sur une même page ?
- 6:24 Google Images privilégie-t-il la qualité d'image au détriment de l'ordre d'affichage sur la page ?
- 8:00 Le machine learning sur les images est-il vraiment un facteur SEO secondaire ?
- 8:29 Le machine learning peut-il vraiment remplacer le texte pour référencer vos images ?
- 11:07 Pourquoi le trafic Google Discover disparaît-il du jour au lendemain ?
- 11:07 Pourquoi le trafic Google Discover s'effondre-t-il du jour au lendemain sans prévenir ?
- 13:13 Les pénalités Google fonctionnent-elles vraiment page par page sans niveaux fixes ?
- 13:13 Google applique-t-il vraiment des pénalités granulaires page par page plutôt que site-wide ?
- 15:21 Pourquoi Google omet-il certains sites pourtant uniques dans ses résultats ?
- 17:29 Une page de mauvaise qualité peut-elle contaminer tout votre site ?
- 17:29 Une homepage mal optimisée peut-elle vraiment pénaliser tout un site ?
- 18:33 Comment Google mesure-t-il les Core Web Vitals sur vos pages AMP et non-AMP ?
- 18:33 Google suit-il vraiment les Core Web Vitals des pages AMP et non-AMP séparément ?
- 20:40 Core Web Vitals : quelle version compte vraiment pour le ranking quand Google affiche l'AMP ?
- 22:18 Faut-il absolument matcher la requête dans le titre pour bien ranker ?
- 22:18 Faut-il privilégier un titre en correspondance exacte ou optimisé utilisateur ?
- 24:28 Les commentaires utilisateurs influencent-ils vraiment le référencement de vos pages ?
- 24:28 Les commentaires d'utilisateurs comptent-ils vraiment pour le référencement naturel ?
- 28:00 Les interstitiels intrusifs sont-ils vraiment un facteur de ranking négatif ?
- 28:09 Les interstitiels intrusifs peuvent-ils réellement faire chuter votre classement Google ?
- 29:09 Pourquoi Google convertit-il vos SVG en PNG et comment cela impacte-t-il votre SEO image ?
- 29:43 Pourquoi Google convertit-il vos SVG en images pixel en interne ?
- 31:18 Faut-il d'abord optimiser l'UX avant d'attaquer le SEO ?
- 31:44 Faut-il vraiment utiliser rel=canonical pour le contenu syndiqué ?
- 32:24 Le rel=canonical vers la source suffit-il vraiment à protéger le contenu syndiqué ?
- 34:29 Faut-il créer du contenu thématique large pour renforcer son autorité aux yeux de Google ?
- 34:29 Faut-il créer du contenu connexe pour renforcer sa réputation thématique ?
- 36:01 Combien de temps faut-il vraiment attendre pour qu'une action manuelle de liens soit levée ?
- 36:01 Pourquoi les actions manuelles liens peuvent-elles traîner plusieurs mois sans réponse ?
- 39:12 PageSpeed Insights reflète-t-il vraiment ce que Google voit de votre site ?
- 39:44 Pourquoi PageSpeed Insights et Googlebot affichent-ils des résultats différents sur votre site ?
- 41:20 Les Core Web Vitals : pourquoi vos tests PageSpeed Insights ne reflètent pas ce que Google mesure vraiment ?
- 44:59 Faut-il vraiment attendre 30 jours pour voir l'impact de vos optimisations Core Web Vitals dans PageSpeed Insights ?
- 45:59 Les Core Web Vitals : pourquoi seules les données terrain comptent-elles pour le ranking ?
- 45:59 Pourquoi Google ignore-t-il vos scores Lighthouse pour classer votre site ?
- 46:43 Comment Google groupe-t-il réellement vos pages pour évaluer les Core Web Vitals ?
- 47:03 Comment Google groupe-t-il vos pages pour mesurer les Core Web Vitals ?
- 51:24 Pourquoi Google continue-t-il de crawler des URLs 404 obsolètes sur votre site ?
- 51:54 Pourquoi Google revérifie-t-il vos anciennes URLs 404 pendant des années ?
- 57:06 Les redirections 301 transmettent-elles vraiment 100% du PageRank et des signaux de liens ?
- 57:06 Les redirections 301 transfèrent-elles vraiment tous les signaux de classement sans perte ?
- 59:51 Le ratio texte/HTML est-il vraiment inutile pour le référencement Google ?
- 59:51 Le ratio texte/HTML est-il vraiment inutile pour le référencement ?
Google claims to treat distinct sites without duplicate content as independent entities. However, if multiple domains show too much similarity, the engine may choose to display only one in the SERPs. Even with unique sites owned by the same person: normally, there's no problem. The devil is in the 'similarity' that Google does not precisely define.
What you need to understand
What does 'similar sites' really mean for Google?
Google does not duplicate results it deems redundant for the user. Similarity is not limited to duplicate content — we are talking about distinct sites, with unique content, but sharing too close an architecture, editorial angle, or purpose.
Specifically, if you operate two domains selling hiking shoes with different texts but with an almost identical structure, geographical targeting, and positioning, Google may decide to show only one domain for a given query. The second is not penalized — it is simply omitted to avoid perceived redundancy.
Is this omission a disguised penalty?
No. The omission is neither a manual filter nor a punitive action. It is an algorithmic choice for diversity in results. Your second site remains indexed, can appear for other queries, and incurs no penalties.
The nuance is important: a penalized site sees its rank drop. An omitted site for similarity remains eligible, but Google prefers to display a competitor or another of your domains deemed more relevant for that specific query. It’s a logic of deduplication at the SERP level.
Why doesn't Google provide a clear threshold for similarity?
Because there is no single metric. Similarity is assessed by a set of signals: theme, related entities, internal link structure, backlink profile, user intent covered, even the same owner identified via Analytics or Search Console.
Google applies machine learning to detect patterns of 'series' sites. No public threshold will be communicated — that would open the door to gaming. A seasoned SEO knows that the line is blurry and depends on the context of the query.
- Distinct sites without duplication: ranked independently if sufficiently differentiated
- Very similar domains: only one may be displayed per query, with no penalty for the others
- Same owner: not a blocking criterion if the sites are genuinely unique in content and intent
- Algorithmic similarity: assessed by a bundle of signals, not a public checklist
SEO Expert opinion
Does this statement align with on-the-ground observations?
Yes, largely. SEOs have observed for years that Google filters redundant results, even between distinct domains. When a brand operates multiple e-commerce sites targeting the same product, it is not uncommon for only one to dominate the SERPs, with the others appearing only for very specific queries or at the bottom of the page.
However, the definition of 'very similar' remains subjective. Sites with unique content, different angles but a same owner may end up competing internally without always understanding why. [To be verified]: Google asserts that it treats 'unique' sites separately, but the line between 'unique' and 'too similar' is painfully lacking transparency.
What signals does Google use to detect similarity?
Mueller does not detail, but on-the-ground experience points to: shared backlink profiles, pages linked to the same entities, almost identical HTML structure, same technical footprint (CMS, server, CDN), same owner identified in GSC or Analytics.
A telling counterexample: two sites from the same owner, one in B2B and the other in B2C, with unique content but a close theme, can be treated separately if user intent diverges sufficiently. Google seeks to map intent — if your two sites address the same intent, you risk omission. Otherwise, you coexist.
In what cases does this rule not apply?
If your domains target clearly distinct geographies, languages, or segments of intent, you should not face omission. A classic example: a .com and a .fr with localized content, not translated in a trivial manner, are treated separately without issue.
On the other hand, if you create multiple domains with content spinning, paraphrased texts, or cloned architecture, you fall exactly into the use case targeted by this rule. Google will not penalize — it will simply ignore your perceived duplicates.
Practical impact and recommendations
What should you do if you manage multiple domains?
First, ask yourself the strategic question: do these domains have a distinct purpose for the user? If the answer is 'to optimize SEO by multiplying presences', you are probably in the at-risk zone for omission.
If each site serves a different intent, audience, or geography, clearly differentiate the editorial angle, structure, and link profile. Do not clone the hierarchy. Do not target the same keywords with the same angle. A concrete example: a site dedicated to trail running, another to alpine hiking — even under the broad same theme, but with distinct audiences and content.
How can you check that your sites are not omitted?
Run targeted queries for which you should rank with multiple domains. Use the site: operator to force the display of each domain and compare with a regular search. If a domain never appears naturally while being indexed and relevant, you probably have a case of omission.
Search Console can also alert you: low impressions despite good positioning on certain queries is a signal. Cross-check with crawl and indexing data — if everything is green on the technical side but traffic is not picking up, similarity with another domain is a serious lead.
What mistakes should you absolutely avoid?
Do not set up 'satellite' domains with recycled content, even paraphrased. Google no longer needs to see strict duplicates to understand that two sites are saying the same thing. Machine learning analyzes semantic intent, not just n-grams.
Avoid linking your domains heavily together with common footers or sidebars. You sign your network and make detection easier. If you must link, do so editorially, contextually, and sparingly.
- Audit the real differentiation between your domains (content, angle, audience)
- Check for the absence of cloned HTML architecture or identical technical patterns
- Test visibility with and without
site:operator on targeted queries - Analyze backlink profiles to avoid overly marked common footprints
- Monitor impressions in GSC for unexplained drops
- Localization and customization of content if multiple domains target nearby geographies
❓ Frequently Asked Questions
Google pénalise-t-il les sites similaires appartenant au même propriétaire ?
Comment Google détecte-t-il que deux sites appartiennent au même propriétaire ?
Peut-on avoir plusieurs sites sur la même thématique sans risque ?
Que faire si un de mes domaines n'apparaît jamais dans les SERP ?
L'omission pour similarité affecte-t-elle le crawl et l'indexation ?
🎥 From the same video 47
Other SEO insights extracted from this same Google Search Central video · duration 1h01 · published on 05/02/2021
🎥 Watch the full video on YouTube →
💬 Comments (0)
Be the first to comment.