What does Google say about SEO? /
Quick SEO Quiz

Test your SEO knowledge in 3 questions

Less than 30 seconds. Find out how much you really know about Google search.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Official statement

Googlebot retrieves a default of 15 megabytes of raw content (raw bytes) per URL, then stops. This 15 MB limit applies to each URL individually: if your HTML references other resources, each one has its own 15 MB limit.
🎥 Source video

Extracted from a Google Search Central video

💬 EN 📅 30/03/2026 ✂ 44 statements
Watch on YouTube →
Other statements from this video 43
  1. Google mesure-t-il vraiment le poids de page comme vous le pensez ?
  2. Le poids des pages mobiles a triplé en 10 ans : faut-il s'inquiéter pour le SEO ?
  3. Les données structurées alourdissent-elles trop vos pages pour être rentables en SEO ?
  4. Votre site mobile contient-il autant de contenu que votre version desktop ?
  5. Pourquoi votre contenu desktop disparaît-il des résultats Google s'il manque sur mobile ?
  6. La vitesse de page impacte-t-elle réellement les conversions selon Google ?
  7. Google traite-t-il vraiment 40 milliards d'URLs de spam par jour ?
  8. La compression réseau améliore-t-elle réellement le crawl budget de votre site ?
  9. Le lazy loading est-il vraiment indispensable pour optimiser le poids initial de vos pages ?
  10. Googlebot s'arrête-t-il vraiment après 15 Mo par URL ?
  11. Pourquoi le poids des pages mobiles a-t-il triplé en une décennie ?
  12. Le poids des pages impacte-t-il vraiment l'expérience utilisateur et le SEO ?
  13. Les données structurées alourdissent-elles vraiment vos pages HTML ?
  14. Pourquoi la parité mobile-desktop reste-t-elle un facteur de déclassement majeur ?
  15. Faut-il encore se préoccuper du poids des pages pour le SEO ?
  16. La taille des ressources est-elle le facteur déterminant de la vitesse de votre site ?
  17. Pourquoi Google impose-t-il une limite stricte de 1 Mo pour les images ?
  18. L'optimisation de la taille des pages profite-t-elle vraiment plus aux utilisateurs qu'au SEO ?
  19. Googlebot limite-t-il vraiment le crawl à 15 Mo par URL ?
  20. Le poids des pages web explose : faut-il s'inquiéter pour son SEO ?
  21. La taille des pages web nuit-elle encore vraiment à votre SEO ?
  22. Les structured data alourdissent-elles vos pages au point de nuire au SEO ?
  23. La vitesse de chargement influence-t-elle vraiment les conversions de vos pages ?
  24. La compression réseau suffit-elle à optimiser l'espace de stockage des utilisateurs ?
  25. Pourquoi la disparité mobile/desktop tue-t-elle votre référencement en indexation mobile-first ?
  26. Le lazy loading est-il vraiment un levier de performance SEO à activer systématiquement ?
  27. Google bloque 40 milliards d'URLs de spam par jour : comment votre site échappe-t-il au filtre ?
  28. L'optimisation des images peut-elle vraiment diviser par 10 le poids de vos pages ?
  29. Googlebot s'arrête-t-il vraiment à 15 Mo par URL ?
  30. Pourquoi la parité mobile-desktop impacte-t-elle autant votre classement en Mobile-First Indexing ?
  31. Le poids de vos pages freine-t-il vraiment votre référencement ?
  32. Les données structurées ralentissent-elles vraiment votre crawl ?
  33. Google intercepte vraiment 40 milliards d'URLs de spam par jour ?
  34. Faut-il limiter vos images à 1 Mo pour plaire à Google ?
  35. Googlebot s'arrête-t-il vraiment à 15 Mo par URL crawlée ?
  36. La vitesse d'un site impacte-t-elle vraiment la conversion ?
  37. Pourquoi la disparité mobile-desktop ruine-t-elle encore tant de classements SEO ?
  38. Les données structurées alourdissent-elles vraiment vos pages HTML ?
  39. Pourquoi la taille des pages reste-t-elle un facteur SEO critique malgré l'amélioration des connexions Internet ?
  40. La compression réseau suffit-elle à optimiser le crawl de votre site ?
  41. Le lazy loading peut-il vraiment booster vos performances sans impacter le crawl ?
  42. La taille d'un site web a-t-elle vraiment un impact sur son référencement ?
  43. Pourquoi Google limite-t-il la taille des images à 1Mo sur sa documentation développeur ?
📅
Official statement from (1 month ago)
TL;DR

Googlebot downloads a maximum of 15 MB of raw content per URL before stopping. This limit applies individually to each resource: HTML, CSS, JS, images — each one has its own 15 MB quota. If your page exceeds this size, Google will simply not index the entire content.

What you need to understand

What exactly does this 15 MB limit apply to?

Google is talking about raw content (raw bytes), meaning uncompressed data retrieved by Googlebot. Even if your server sends a file compressed with gzip or brotli, Google counts the 15 MB after decompression.

The limit applies resource by resource. Your HTML can weigh 14 MB, your main CSS file 12 MB, and your JavaScript bundle 10 MB — each is treated separately. Googlebot doesn't add up the weights to block the entire page, but it stops dead on any file that exceeds the threshold.

Why does Google impose this restriction?

Crawl budget is an economic reality for Google. Every byte downloaded costs bandwidth, processing time, storage. A strict limit prevents any single file from monopolizing disproportionate resources.

This constraint also protects Google's infrastructure against poorly optimized or malicious sites that might attempt to inject astronomical amounts of content into a single URL. Let's be honest: a 15 MB HTML file is already a symptom of catastrophic architecture.

What happens to content beyond 15 MB?

Googlebot simply stops. It will never see what comes next. If your primary navigation, internal links, or structuring elements are located after this cutoff, they simply don't exist for Google.

Concretely, if your HTML reaches 15.5 MB, the last 500 KB disappear from the radar. This can include entire sections of content, schema.org tags, critical internal linking elements.

  • 15 MB of raw content = strict limit per URL, counted after decompression
  • Each resource (HTML, CSS, JS, images) has its own independent limit
  • Beyond 15 MB, Googlebot stops downloading and ignores the rest of the file
  • Critical impact on indexation if essential elements are located after the cutoff
  • No cumulative counting: each referenced file restarts its own counter at zero

SEO Expert opinion

Is this statement consistent with field observations?

Yes, and it's even an official confirmation of a limit that's been circulating in the SEO community for years. We regularly observe cases where pages with dynamically generated content — e-commerce catalogs, directory listings, infinite category pages — see their HTML explode in size.

The typical problem? Sites that inline massive JSON data, duplicate content in HTML attributes, or load hundreds of products on a single page without pagination. These architectures easily exceed 15 MB and lose entire sections of content in indexation.

What nuances should be applied to this rule?

Martin Splitt doesn't specify whether this limit applies before or after JavaScript rendering. If your initial HTML weighs 2 MB but the DOM generated by your framework reaches 18 MB after hydration, what happens? [To verify] — Google has never publicly clarified this point.

Another gray area: referenced but non-essential resources for rendering. Will a 20 MB background image in a CSS file be partially downloaded or completely ignored? The answer probably depends on context and resource type. We lack concrete data on this scenario.

Finally, this limit is a technical constraint, not a qualitative recommendation. Just because your page weighs 14 MB doesn't mean it's optimized — it remains catastrophic for UX, crawl budget, and Core Web Vitals.

Warning: This 15 MB limit should never serve as justification for building heavy pages. An HTML exceeding 1-2 MB should already trigger a complete architectural review.

In what cases does this rule really pose a problem?

The most impacted sites are those generating massively aggregated content: vertical search engines, price comparators, marketplaces with hundreds of product variants on a single page.

Concrete observed case: an e-commerce site loading 500 products per category to artificially improve "content depth". Result: 22 MB HTML. Google cut off before the footer, thus losing all critical internal linking elements. Indexation of deep pages collapsed.

Practical impact and recommendations

How do you verify if your site is affected by this limit?

First step: identify at-risk URLs. Use a crawler like Screaming Frog or Oncrawl and filter pages where HTML exceeds 5 MB — you're already in the red zone. Then examine your JS and CSS resources: a 10 MB webpack bundle isn't uncommon on poorly optimized React applications.

Check with Chrome DevTools the Network tab, "Size" column (uncheck "Disable cache"). Look at the size after decompression, not the transferred size. This is the value that matters to Googlebot.

Also test with curl -H "Accept-Encoding: gzip" -s https://yoursite.com | wc -c to get the raw size that Google retrieves. If the result approaches or exceeds 15,000,000 bytes, you have a problem.

What should you concretely do to stay under this limit?

Paginate. Always. If you display long lists — products, articles, directories — split them into pages of 20-50 elements maximum. Use clean URL parameters (?page=2) with rel="next" and rel="prev" tags if relevant.

Remove all unnecessary content from the HTML source: no redundant JSON-LD, no data duplication between data-* attributes and visible content, no massive inline CSS or JS. Externalize your resources and optimize them individually.

For heavyweight JavaScript applications, adopt code splitting. Load only what's strictly necessary for first render. Lazy-load secondary modules after user interaction. Webpack, Vite, Parcel — all modern bundlers support this approach.

What errors must you absolutely avoid?

Don't attempt to "work around" this limit by artificially splitting your content across multiple URLs without editorial logic. Google detects this type of manipulation and may consider it doorway pages.

Also avoid relying solely on server compression (gzip/brotli) to stay under the limit. It certainly reduces network transfer, but Google counts bytes after decompression. A 25 MB file compressed to 12 MB is still a 25 MB file for Googlebot.

  • Audit all pages exceeding 5 MB of raw HTML with a professional crawler
  • Measure the actual (non-compressed) size of each resource in Chrome DevTools
  • Systematically paginate long lists (products, articles, directories)
  • Externalize CSS and JavaScript — never massive inline content in HTML
  • Implement code splitting on modern JS applications (React, Vue, Angular)
  • Remove all redundancy: unnecessary JSON-LD, duplicated data-* attributes, hidden content
  • Regularly test with curl or monitoring tools the raw size of critical resources
  • Monitor the evolution of page weight in your monthly crawl budget
The 15 MB per URL limit is a hard technical constraint. Any overage results in partial or total loss of indexation for content beyond the limit. The goal isn't to approach this limit but to stay massively below it — ideally under 1-2 MB for HTML. These optimizations touch on front-end architecture, server rendering, and content management alike. If your technical stack is complex or if you observe indexation anomalies related to heavy pages, it may be wise to work with an SEO agency specializing in this area, who can precisely diagnose friction points and propose an architectural overhaul suited to your business context.

❓ Frequently Asked Questions

La limite de 15 Mo s'applique-t-elle au contenu compressé ou décompressé ?
Elle s'applique au contenu décompressé. Même si votre serveur envoie un fichier gzip ou brotli de 8 Mo qui se décompresse à 18 Mo, Googlebot s'arrêtera à 15 Mo après décompression.
Si mon HTML dépasse 15 Mo, Google indexe-t-il quand même une partie de la page ?
Oui, Google indexe les 15 premiers Mo. Tout ce qui suit est ignoré — liens, contenu, balises structurées. Si des éléments critiques se trouvent après cette coupure, ils n'existeront pas pour Google.
Cette limite concerne-t-elle aussi les images et les vidéos intégrées ?
Chaque ressource a sa propre limite de 15 Mo. Une image de 20 Mo ne sera pas téléchargée intégralement, mais cela n'impacte pas le HTML qui la référence. Chaque URL dispose de son quota indépendant.
Comment savoir si mes pages dépassent cette limite ?
Utilisez Chrome DevTools (onglet Network, colonne Size après décompression) ou un crawler SEO comme Screaming Frog. Vous pouvez aussi tester avec curl pour obtenir la taille brute récupérée par Googlebot.
Un site en JavaScript client-side (React, Vue) est-il plus exposé à ce problème ?
Potentiellement oui, surtout si le bundle JS est monolithique et non optimisé. Un bundle webpack de 12 Mo chargé en une fois peut poser problème. Le code splitting et le lazy loading sont essentiels pour rester sous la limite.
🏷 Related Topics
Content Crawl & Indexing Domain Name

🎥 From the same video 43

Other SEO insights extracted from this same Google Search Central video · published on 30/03/2026

🎥 Watch the full video on YouTube →

Related statements

💬 Comments (0)

Be the first to comment.

2000 characters remaining
🔔

Get real-time analysis of the latest Google SEO declarations

Be the first to know every time a new official Google statement drops — with full expert analysis.

No spam. Unsubscribe in one click.