What does Google say about SEO? /
Quick SEO Quiz

Test your SEO knowledge in 3 questions

Less than 30 seconds. Find out how much you really know about Google search.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Official statement

Structured data, which are intended for machines rather than users, can considerably increase the weight of a page. Google supports many types of structured data, and their accumulation on a page can easily bloat the HTML size.
🎥 Source video

Extracted from a Google Search Central video

💬 EN 📅 30/03/2026 ✂ 44 statements
Watch on YouTube →
Other statements from this video 43
  1. Pourquoi Googlebot s'arrête-t-il à 15 Mo par URL et comment cela impacte-t-il votre crawl ?
  2. Google mesure-t-il vraiment le poids de page comme vous le pensez ?
  3. Le poids des pages mobiles a triplé en 10 ans : faut-il s'inquiéter pour le SEO ?
  4. Les données structurées alourdissent-elles trop vos pages pour être rentables en SEO ?
  5. Votre site mobile contient-il autant de contenu que votre version desktop ?
  6. Pourquoi votre contenu desktop disparaît-il des résultats Google s'il manque sur mobile ?
  7. La vitesse de page impacte-t-elle réellement les conversions selon Google ?
  8. Google traite-t-il vraiment 40 milliards d'URLs de spam par jour ?
  9. La compression réseau améliore-t-elle réellement le crawl budget de votre site ?
  10. Le lazy loading est-il vraiment indispensable pour optimiser le poids initial de vos pages ?
  11. Googlebot s'arrête-t-il vraiment après 15 Mo par URL ?
  12. Pourquoi le poids des pages mobiles a-t-il triplé en une décennie ?
  13. Le poids des pages impacte-t-il vraiment l'expérience utilisateur et le SEO ?
  14. Les données structurées alourdissent-elles vraiment vos pages HTML ?
  15. Pourquoi la parité mobile-desktop reste-t-elle un facteur de déclassement majeur ?
  16. Faut-il encore se préoccuper du poids des pages pour le SEO ?
  17. La taille des ressources est-elle le facteur déterminant de la vitesse de votre site ?
  18. Pourquoi Google impose-t-il une limite stricte de 1 Mo pour les images ?
  19. L'optimisation de la taille des pages profite-t-elle vraiment plus aux utilisateurs qu'au SEO ?
  20. Googlebot limite-t-il vraiment le crawl à 15 Mo par URL ?
  21. Le poids des pages web explose : faut-il s'inquiéter pour son SEO ?
  22. La taille des pages web nuit-elle encore vraiment à votre SEO ?
  23. La vitesse de chargement influence-t-elle vraiment les conversions de vos pages ?
  24. La compression réseau suffit-elle à optimiser l'espace de stockage des utilisateurs ?
  25. Pourquoi la disparité mobile/desktop tue-t-elle votre référencement en indexation mobile-first ?
  26. Le lazy loading est-il vraiment un levier de performance SEO à activer systématiquement ?
  27. Google bloque 40 milliards d'URLs de spam par jour : comment votre site échappe-t-il au filtre ?
  28. L'optimisation des images peut-elle vraiment diviser par 10 le poids de vos pages ?
  29. Googlebot s'arrête-t-il vraiment à 15 Mo par URL ?
  30. Pourquoi la parité mobile-desktop impacte-t-elle autant votre classement en Mobile-First Indexing ?
  31. Le poids de vos pages freine-t-il vraiment votre référencement ?
  32. Les données structurées ralentissent-elles vraiment votre crawl ?
  33. Google intercepte vraiment 40 milliards d'URLs de spam par jour ?
  34. Faut-il limiter vos images à 1 Mo pour plaire à Google ?
  35. Googlebot s'arrête-t-il vraiment à 15 Mo par URL crawlée ?
  36. La vitesse d'un site impacte-t-elle vraiment la conversion ?
  37. Pourquoi la disparité mobile-desktop ruine-t-elle encore tant de classements SEO ?
  38. Les données structurées alourdissent-elles vraiment vos pages HTML ?
  39. Pourquoi la taille des pages reste-t-elle un facteur SEO critique malgré l'amélioration des connexions Internet ?
  40. La compression réseau suffit-elle à optimiser le crawl de votre site ?
  41. Le lazy loading peut-il vraiment booster vos performances sans impacter le crawl ?
  42. La taille d'un site web a-t-elle vraiment un impact sur son référencement ?
  43. Pourquoi Google limite-t-il la taille des images à 1Mo sur sa documentation développeur ?
📅
Official statement from (1 month ago)
TL;DR

Martin Splitt reminds us that structured data adds HTML weight. The accumulation of multiple Schema.org markup types can significantly inflate page size. A trade-off between semantic richness and technical performance is necessary.

What you need to understand

Why is Google bringing up the weight of structured data now?

The statement from Martin Splitt comes at a time when Core Web Vitals carry significant weight in UX evaluation. Many sites stack Schema.org markups (Product, Article, FAQ, HowTo, BreadcrumbList, Organization, etc.) without measuring the impact on HTML size.

The problem: this data is meant for machines, not humans. It displays nothing on screen but bloats the source code. A detailed FAQ JSON-LD can easily add 20 to 50 KB, and when you multiply the types, you quickly exceed 100 KB in structured data alone.

Does this actually impact crawling and indexing?

Yes, in two ways. First, heavy HTML slows down parsing on the Googlebot side — more CPU resources needed to extract useful content. Second, if the page exceeds the thresholds Google tolerates (officially ~15 MB, but in practice problems start well before), certain portions may be truncated.

Let's be honest: most sites don't come close to these limits. But on rich pages (e-commerce with product variants, long articles with nested FAQ and HowTo), the accumulation becomes critical.

What does "Google supports many types of structured data" mean in this context?

It's an implicit reminder: Google offers the ability to enrich your pages with dozens of markup types. But just because a type is supported doesn't mean you should implement it systematically.

Each markup must serve a specific business or SEO objective (rich snippet, Knowledge Graph, carousel eligibility). Stacking structured data "just in case" is counterproductive if it tanks performance.

  • HTML weight: structured data adds to the source code, invisible to users but read by bots
  • Trade-off necessary: prioritize markups that actually generate SERP features (stars, accordion FAQ, breadcrumb, etc.)
  • Googlebot parsing: bloated HTML slows down extraction of useful content and can impact crawl budget on large sites
  • Core Web Vitals: heavy HTML can indirectly degrade LCP if the browser takes longer to build the DOM

SEO Expert opinion

Is this statement consistent with real-world observations?

Absolutely. I've seen e-commerce pages with 5 to 7 types of simultaneous structured data: Product, Offer, AggregateRating, Review, BreadcrumbList, Organization, WebSite. Result: 80 to 120 KB in JSON-LD alone, on pages displaying 3 lines of product text.

The paradox? These same sites struggle to optimize images and reduce third-party JS, but let HTML explode with redundant or poorly targeted markups. Google says it politely, but the message is clear: clean house.

In which cases does this rule become truly problematic?

Three classic scenarios. E-commerce sites that duplicate product info in multiple formats (Microdata + JSON-LD, or separate JSON-LD Product + Offer when they could be nested). Blogs that add FAQ + HowTo + Article + BreadcrumbList on every page, even when the content doesn't justify all these types.

And that's where it gets stuck: automatic structured data generators (plugins, CMS) stack by default without logic. I've seen pages with empty HowTo markup (step tags with no actual content) just "because the plugin offers it".

Warning: Google doesn't directly penalize excess structured data, but the indirect impact on performance (parsing, DOM size, LCP) can cost you in rankings through Core Web Vitals.

What nuances should be added to this claim?

Martin Splitt talks about "HTML weight," but we need to distinguish two problems. Raw weight (KB transferred over the network) and DOM complexity (number of nodes to parse). A well-structured 50 KB JSON-LD is less problematic than 50 KB of HTML stuffed with nested tables.

Second nuance: not all markup types are created equal. A 2 KB BreadcrumbList is negligible and delivers real UX benefit (breadcrumb in SERP). A 40 KB Review markup with 200 detailed reviews is questionable — Google only displays aggregate reviews from the entire page anyway.

[To verify]: Google has never published an official threshold for "acceptable" structured data size. We know the total HTML shouldn't exceed ~15 MB, but in practice, once you hit 500 KB of HTML, symptoms appear (partial indexing, crawl slowdown). So aiming for less than 200 KB of total HTML remains good practice, structured data included.

Practical impact and recommendations

How do you audit the weight of structured data on your site?

First step: measure. Use your browser's network inspector (Network tab, Doc filter) to see the raw HTML size of your strategic pages. Next, copy the source code and isolate JSON-LD or Microdata blocks — a simple Ctrl+F for application/ld+json reveals the scope.

You can script this with Screaming Frog (custom extraction via XPath) or a Python crawler. The goal: identify pages where structured data represents > 20% of total HTML. That's often a sign of imbalance.

Which markups to keep, which to delete?

Simple rule: keep what generates visible display in SERP. Product stars (AggregateRating), breadcrumbs (BreadcrumbList), accordion FAQs, recipe rich results. Remove what only serves to "feed the Knowledge Graph" without visible return — or A/B test if you have the traffic.

Concrete example: a media site with Article + FAQPage + HowTo on every article. If Google never displays the HowTo in a rich snippet after 3 months, remove it. You'll save 15-30 KB per page, a huge cumulative gain across 10,000 articles.

  • Audit the HTML size of your key pages and measure the share of structured data
  • Prioritize markups that generate measurable SERP features (stars, FAQ, breadcrumb)
  • Remove or condense redundant markups (ex: separate Offer and Product when you could nest them)
  • Test validity with Google's Rich Results Test after each change
  • Monitor Core Web Vitals evolution (LCP particularly) after HTML streamlining
  • Document markup types used by template (product page, article, category) to prevent anarchic stacking
Structured data are a powerful SEO lever, but their blind accumulation becomes counterproductive. The trade-off between semantic richness and technical performance requires a surgical approach: keep what converts to SERP visibility, eliminate the surplus. Concretely? Audit, measure, prioritize. If your site combines tens of thousands of pages with complex markups, balance quickly becomes difficult to maintain alone — engaging an SEO-specialized agency allows you to obtain a precise audit and a structured data strategy calibrated to your business objectives, without sacrificing performance.

❓ Frequently Asked Questions

Les structured data en JSON-LD sont-elles plus lourdes que les Microdata ?
Pas nécessairement. Le JSON-LD ajoute les balises <script type="application/ld+json">, mais évite de polluer le HTML visible. Les Microdata s'imbriquent dans le markup existant, donc théoriquement plus légères si bien intégrées. En pratique, la différence est marginale — c'est la quantité de données structurées qui compte, pas le format.
Faut-il supprimer les structured data si ma page dépasse 200 Ko de HTML ?
Pas automatiquement. D'abord, identifiez les autres sources de poids (HTML de navigation redondant, inline CSS massif, commentaires de code). Si les structured data représentent > 30 % du HTML total et que Google n'affiche aucun rich snippet, alors oui, élaguez. Sinon, optimisez d'abord le reste.
Google peut-il ignorer certaines structured data si la page est trop lourde ?
Officiellement, Google parse les structured data même sur des pages volumineuses, tant qu'elles restent sous la limite de ~15 Mo. En pratique, un HTML très lourd ralentit le parsing et peut entraîner une indexation partielle, ce qui réduit les chances d'affichage en rich snippet.
Les structured data impactent-elles directement le classement SEO ?
Non, Google a toujours affirmé que les structured data ne sont pas un facteur de ranking direct. Mais elles influencent indirectement : via les Core Web Vitals (poids HTML), le taux de clic (rich snippets), et la compréhension sémantique du contenu. Donc impact indirect, mais réel.
Combien de types de structured data peut-on empiler sur une même page ?
Aucune limite technique, mais la bonne pratique est de rester sous 3-4 types par page. Au-delà, vous augmentez le risque de conflits (ex : plusieurs markups Article concurrents) et le poids HTML explose. Priorisez les types qui correspondent réellement au contenu affiché.
🏷 Related Topics
Domain Age & History Structured Data AI & SEO Pagination & Structure

🎥 From the same video 43

Other SEO insights extracted from this same Google Search Central video · published on 30/03/2026

🎥 Watch the full video on YouTube →

Related statements

💬 Comments (0)

Be the first to comment.

2000 characters remaining
🔔

Get real-time analysis of the latest Google SEO declarations

Be the first to know every time a new official Google statement drops — with full expert analysis.

No spam. Unsubscribe in one click.