What does Google say about SEO? /
Quick SEO Quiz

Test your SEO knowledge in 3 questions

Less than 30 seconds. Find out how much you really know about Google search.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Official statement

Two different sites with unique content, even on the same topic (e.g., two astrology sites), should be ranked individually. If Google treats them as identical and omits one, it's potentially a problem to report through help forums.
15:21
🎥 Source video

Extracted from a Google Search Central video

⏱ 1h01 💬 EN 📅 05/02/2021 ✂ 48 statements
Watch on YouTube (15:21) →
Other statements from this video 47
  1. 2:42 Les pages e-commerce à contenu dynamique sont-elles pénalisées par Google ?
  2. 2:42 Le contenu variable des pages e-commerce nuit-il au référencement ?
  3. 4:15 Pourquoi Google pénalise-t-il les catégories e-commerce trop larges ou incohérentes ?
  4. 4:15 Pourquoi Google pénalise-t-il les pages catégories sans cohérence thématique stricte ?
  5. 6:24 Comment Google choisit-il l'ordre d'affichage des images sur une même page ?
  6. 6:24 Google Images privilégie-t-il la qualité d'image au détriment de l'ordre d'affichage sur la page ?
  7. 8:00 Le machine learning sur les images est-il vraiment un facteur SEO secondaire ?
  8. 8:29 Le machine learning peut-il vraiment remplacer le texte pour référencer vos images ?
  9. 11:07 Pourquoi le trafic Google Discover disparaît-il du jour au lendemain ?
  10. 11:07 Pourquoi le trafic Google Discover s'effondre-t-il du jour au lendemain sans prévenir ?
  11. 13:13 Les pénalités Google fonctionnent-elles vraiment page par page sans niveaux fixes ?
  12. 13:13 Google applique-t-il vraiment des pénalités granulaires page par page plutôt que site-wide ?
  13. 15:21 Google peut-il masquer l'un de vos sites s'ils se ressemblent trop ?
  14. 17:29 Une page de mauvaise qualité peut-elle contaminer tout votre site ?
  15. 17:29 Une homepage mal optimisée peut-elle vraiment pénaliser tout un site ?
  16. 18:33 Comment Google mesure-t-il les Core Web Vitals sur vos pages AMP et non-AMP ?
  17. 18:33 Google suit-il vraiment les Core Web Vitals des pages AMP et non-AMP séparément ?
  18. 20:40 Core Web Vitals : quelle version compte vraiment pour le ranking quand Google affiche l'AMP ?
  19. 22:18 Faut-il absolument matcher la requête dans le titre pour bien ranker ?
  20. 22:18 Faut-il privilégier un titre en correspondance exacte ou optimisé utilisateur ?
  21. 24:28 Les commentaires utilisateurs influencent-ils vraiment le référencement de vos pages ?
  22. 24:28 Les commentaires d'utilisateurs comptent-ils vraiment pour le référencement naturel ?
  23. 28:00 Les interstitiels intrusifs sont-ils vraiment un facteur de ranking négatif ?
  24. 28:09 Les interstitiels intrusifs peuvent-ils réellement faire chuter votre classement Google ?
  25. 29:09 Pourquoi Google convertit-il vos SVG en PNG et comment cela impacte-t-il votre SEO image ?
  26. 29:43 Pourquoi Google convertit-il vos SVG en images pixel en interne ?
  27. 31:18 Faut-il d'abord optimiser l'UX avant d'attaquer le SEO ?
  28. 31:44 Faut-il vraiment utiliser rel=canonical pour le contenu syndiqué ?
  29. 32:24 Le rel=canonical vers la source suffit-il vraiment à protéger le contenu syndiqué ?
  30. 34:29 Faut-il créer du contenu thématique large pour renforcer son autorité aux yeux de Google ?
  31. 34:29 Faut-il créer du contenu connexe pour renforcer sa réputation thématique ?
  32. 36:01 Combien de temps faut-il vraiment attendre pour qu'une action manuelle de liens soit levée ?
  33. 36:01 Pourquoi les actions manuelles liens peuvent-elles traîner plusieurs mois sans réponse ?
  34. 39:12 PageSpeed Insights reflète-t-il vraiment ce que Google voit de votre site ?
  35. 39:44 Pourquoi PageSpeed Insights et Googlebot affichent-ils des résultats différents sur votre site ?
  36. 41:20 Les Core Web Vitals : pourquoi vos tests PageSpeed Insights ne reflètent pas ce que Google mesure vraiment ?
  37. 44:59 Faut-il vraiment attendre 30 jours pour voir l'impact de vos optimisations Core Web Vitals dans PageSpeed Insights ?
  38. 45:59 Les Core Web Vitals : pourquoi seules les données terrain comptent-elles pour le ranking ?
  39. 45:59 Pourquoi Google ignore-t-il vos scores Lighthouse pour classer votre site ?
  40. 46:43 Comment Google groupe-t-il réellement vos pages pour évaluer les Core Web Vitals ?
  41. 47:03 Comment Google groupe-t-il vos pages pour mesurer les Core Web Vitals ?
  42. 51:24 Pourquoi Google continue-t-il de crawler des URLs 404 obsolètes sur votre site ?
  43. 51:54 Pourquoi Google revérifie-t-il vos anciennes URLs 404 pendant des années ?
  44. 57:06 Les redirections 301 transmettent-elles vraiment 100% du PageRank et des signaux de liens ?
  45. 57:06 Les redirections 301 transfèrent-elles vraiment tous les signaux de classement sans perte ?
  46. 59:51 Le ratio texte/HTML est-il vraiment inutile pour le référencement Google ?
  47. 59:51 Le ratio texte/HTML est-il vraiment inutile pour le référencement ?
📅
Official statement from (5 years ago)
TL;DR

Google claims that two distinct sites with unique content on the same topic should be ranked individually. If your site disappears in favor of a competitor treated as 'similar,' it's potentially an algorithm bug. Mueller recommends reporting these cases through help forums, suggesting that the similar results filter malfunctions more often than one might think.

What you need to understand

Does Google really filter 'similar' sites independently?

Mueller's statement addresses a common frustration: two sites covering the same topic but with distinct content should never be seen as duplicates. Yet, in practice, some SEOs observe that one of their projects disappears from the SERPs while a competitor remains visible—even when the content is objectively different.

Google's omitted results filter is designed to eliminate strict duplicates, not thematically similar sites. If your astrology site offers original analyses and another astrology site 'overwhelms' you in the rankings to the point of making you invisible, Google considers that an anomaly. But be careful: Mueller is not talking about ranking, he's discussing pure omission—your site doesn't even appear in the extended results.

What is the difference between 'omitted' and 'under-ranked'?

This is crucial. An omitted site appears nowhere, not even in the 50th position. An under-ranked site is present but far behind. Mueller's statement only concerns the first case—total omission due to algorithmic confusion. If you are on page 3, it's not a bug: it's a relevance, authority, or quality issue.

The problem arises especially when two distinct domains belong to the same owner or share similar technical signals (same IP, same server, same GA, massive cross-linking). Google can then treat them as variants of the same site and display only one of them. But even in that case, if the contents are truly unique, the omission should be lifted.

What does 'report via help forums' mean in practice?

Mueller suggests using the community forums (Search Central Help Community) to report these cases. This means that Google does not have a reliable automatic detection tool for this problem—otherwise, it would be corrected upstream. It’s an indirect admission: the similar results filter produces false positives.

Another point: Mueller doesn’t say 'open a ticket,' he says 'report in the forums.' Translation for practitioners: this is not a priority bug for Google, but if enough cases are reported, a team may investigate. There is no guarantee of quick correction—sometimes months of waiting.

  • Two distinct sites with unique content should never be omitted at the expense of one another—that's Google's official position.
  • The similar results filter is supposed to target strict duplicates, not thematically close sites.
  • If your site disappears entirely (not just under-ranked), it's potentially a malfunction to report.
  • The help forums are the only channel mentioned—no automatic recourse or support ticket.
  • Google implicitly admits that this filter produces errors, otherwise Mueller would not suggest reporting cases.

SEO Expert opinion

Is this statement consistent with on-the-ground observations?

Let’s be honest: yes and no. In most cases, two genuinely distinct sites with original content coexist without issues in the SERPs. But there are situations where Google fails—especially when domain signals overlap (same WHOIS owner, same servers, same incoming link patterns, structurally similar content even if textually different).

Concrete example: two e-commerce sites selling similar products, with template-generated product listings. Even if the descriptions are rewritten, if the HTML structure, schema tags, URLs, and link anchors are nearly identical, Google may treat them as variants. And that's where it gets tricky: Mueller talks about 'unique content,' but Google assesses much more than just the text. [To verify]: there is no clear metric for what triggers omission—it's a black box.

What are the gray areas that Mueller doesn't mention?

First point: Mueller mentions 'unique content,' but he doesn't define how Google measures this uniqueness. Is it purely textual? Do entity signals, schema markup, and data structure come into play? Probably. Can an astrology site that reuses the same astrological entities (signs, planets, aspects) with different vocabulary be seen as 'similar' by a semantic model? We lack data.

Second blind spot: Mueller does not specify at what point in the ranking pipeline omission occurs. Is it during crawling? At indexing? During result serving? If it happens post-indexing, it means your content is indexed but filtered on the fly—which would explain why some sites 'reappear' sporadically based on queries.

Do you really have to go through help forums, or are there alternatives?

Mueller's advice (help forums) is a slow path. In practice, many SEOs first attempt technical fixes: differentiating linking patterns, changing servers, adjusting anchors, enriching content with truly distinct angles. Sometimes, this resolves the issue without Google's intervention.

Another option: use the URL Inspection tool in Search Console to check if the page is indexed but omitted, or completely non-indexed. If it’s indexed but invisible in extended SERPs, that’s a strong signal of algorithmic omission. In that case, reporting to the forums might be relevant—but don’t expect a quick response. [To verify]: no SLA communicated by Google regarding the handling of these reports.

Warning: If your two sites share syndicated content, identical text blocks (footer, extended legal mentions, copied FAQs), or nearly duplicated satellite pages, Google is right to treat them as similar. The omission is then not a bug but a logical consequence.

Practical impact and recommendations

How can I check if my site is a victim of abnormal omission?

First step: test your main URLs with a 'site:' search in Google. If your key pages do not appear at all, check in Search Console to ensure they are indexed. If they are indexed but invisible even in strict search ('site:yourdomain.com exact-title-of-the-page'), you are likely in a case of omission.

Second test: compare with a direct competitor. Conduct a search on a brand query (your domain name or unique entity). If you do not appear at all, but a thematically close site does, it's a signal. Repeat across several brand and non-brand queries to confirm.

What corrective actions should be prioritized?

If you manage multiple sites on closely related topics, start by differentiating technical signals: separate servers, use distinct Google Analytics, avoid systematic footer cross-links, vary URL structures. Google aggregates hundreds of signals—the more they overlap, the higher the risk of confusion.

On the content side, don’t just rewrite the text. Change the angles: if one site covers astrology by sign, the other could approach it by life theme (love, work, health). Vary formats: long articles vs. practical guides vs. interactive calculators. Google assesses differentiated added value, not just the absence of plagiarism.

What to do if the issue persists despite corrective measures?

Document precisely: screenshots of 'site:' searches, Search Console exports showing indexing, examples of queries where your content should appear but is omitted. Post a detailed case in the Search Central Help Community with this evidence. Product Experts and sometimes Googlers (like Mueller) can escalate if the case is clear.

In parallel, consider a thorough technical audit: misconfigured canonicals, conflicting hreflang, broken pagination, or even unnotified manual penalties (rare but possible). Sometimes, what looks like algorithmic omission hides a deeper problem.

  • Check actual indexing through Search Console and strict 'site:' searches.
  • Compare your SERP performance with a direct competitor on identical queries.
  • Differentiating technical signals (server, Analytics, links) if you manage multiple sites.
  • Enhance content with truly distinct angles, formats, and data.
  • Document the case with captures and Search Console data before reporting.
  • Consult help forums with a structured case—not just a vague complaint.
Abnormal omission of unique sites remains a rare but real issue, often related to too similar domain signals or overly close content structures. Google does not offer an automatic solution—the correction requires strong technical and editorial differentiation, and potentially a reasoned report. These optimizations can be complex to orchestrate alone, especially when multiple digital properties are involved. In this context, consulting a specialized SEO agency can expedite diagnosis and compliance, with an outside perspective on the signals that Google truly aggregates.

❓ Frequently Asked Questions

Deux sites sur le même sujet peuvent-ils coexister dans les résultats Google ?
Oui, selon Mueller, deux sites distincts avec du contenu unique devraient être classés individuellement, même s'ils traitent du même sujet. Si l'un est omis au profit de l'autre, c'est potentiellement un bug à signaler.
Quelle est la différence entre « omis » et « mal classé » dans Google ?
Un site omis n'apparaît nulle part dans les résultats, même étendus. Un site mal classé est présent mais loin dans les pages. L'omission est un filtre algorithmique, le classement est une question de pertinence.
Comment savoir si mon site est victime d'une omission anormale ?
Testez avec des recherches « site: » strictes. Si vos pages sont indexées dans Search Console mais invisibles même en recherche directe, vous êtes probablement dans un cas d'omission par confusion algorithmique.
Que faire si Google traite mes deux sites comme identiques ?
Différenciez les signaux techniques (serveurs, Analytics, liens), variez les angles éditoriaux et formats de contenu, puis documentez le cas et signalez-le via le Search Central Help Community.
Le filtre de résultats similaires est-il fiable ?
Pas toujours. Mueller lui-même suggère de signaler les erreurs, ce qui prouve que le filtre produit des faux positifs. Google n'a pas d'outil de détection automatique pour ces dysfonctionnements.
🏷 Related Topics
Content AI & SEO

🎥 From the same video 47

Other SEO insights extracted from this same Google Search Central video · duration 1h01 · published on 05/02/2021

🎥 Watch the full video on YouTube →

Related statements

💬 Comments (0)

Be the first to comment.

2000 characters remaining
🔔

Get real-time analysis of the latest Google SEO declarations

Be the first to know every time a new official Google statement drops — with full expert analysis.

No spam. Unsubscribe in one click.