What does Google say about SEO? /
Quick SEO Quiz

Test your SEO knowledge in 3 questions

Less than 30 seconds. Find out how much you really know about Google search.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Official statement

For a large site with pagination, it is not necessary to send all pagination pages (page 2, 3, 100…) in the XML sitemap. Google recommends only submitting important pages. Since the rel=next/prev attribute is no longer used, having all paginated pages indexable without a specific signal is acceptable.
67:58
🎥 Source video

Extracted from a Google Search Central video

⏱ 1h14 💬 EN 📅 04/06/2020 ✂ 44 statements
Watch on YouTube (67:58) →
Other statements from this video 43
  1. 2:22 Pourquoi votre site a-t-il perdu du trafic après une Core Update sans avoir fait d'erreur ?
  2. 2:22 Les Core Web Vitals vont-ils vraiment bouleverser votre stratégie SEO ?
  3. 3:50 Une baisse de classement après une Core Update signifie-t-elle vraiment un problème avec votre site ?
  4. 3:50 Faut-il vraiment attendre avant d'optimiser les Core Web Vitals ?
  5. 3:50 Pourquoi Google repousse-t-il la migration complète vers le Mobile-First Index ?
  6. 7:07 Google peut-il vraiment repousser le Mobile-First Indexing indéfiniment ?
  7. 11:00 Pourquoi Google ne canonicalise-t-il pas les URLs avec fragments dans les sitelinks et rich results ?
  8. 11:00 Les URLs avec fragments (#) dans Search Console : faut-il revoir votre stratégie de tracking et d'analyse ?
  9. 14:34 Pourquoi les chiffres entre Analytics, Search Console et My Business ne correspondent-ils jamais ?
  10. 14:35 Pourquoi vos métriques Google ne concordent-elles jamais entre Search Console, Analytics et Business Profile ?
  11. 16:37 Comment sont vraiment comptabilisés les clics FAQ dans Search Console ?
  12. 18:44 Les accordéons mobile et desktop sont-ils vraiment neutres pour le SEO ?
  13. 18:44 Le contenu masqué par accordéon mobile est-il vraiment indexé comme du contenu visible ?
  14. 29:45 Le rel=canonical via HTTP header fonctionne-t-il vraiment encore ?
  15. 30:09 L'en-tête HTTP rel=canonical fonctionne-t-il vraiment pour gérer les contenus dupliqués ?
  16. 31:00 Pourquoi Search Console affiche-t-il encore 'PC Googlebot' sur des sites récents alors que le Mobile-First Index est censé être la norme ?
  17. 31:02 Mobile-First Indexing par défaut : pourquoi Search Console affiche-t-il encore desktop Googlebot ?
  18. 33:28 Pourquoi Google insiste-t-il sur le contexte textuel dans les feedbacks Search Console ?
  19. 33:31 Les outils Search Console suffisent-ils vraiment à résoudre vos problèmes d'indexation ?
  20. 33:59 Pourquoi vos pages ne s'indexent-elles toujours pas après 60 jours dans Search Console ?
  21. 37:24 Pourquoi Google indexe-t-il parfois HTTP au lieu de HTTPS malgré la migration SSL ?
  22. 37:53 Faut-il vraiment cumuler redirections 301 ET canonical pour une migration HTTPS ?
  23. 39:16 Pourquoi votre sitemap échoue dans Search Console et comment débloquer réellement la situation ?
  24. 41:29 Votre marque disparaît des SERP sans raison : le feedback Google peut-il vraiment résoudre le problème ?
  25. 44:07 Faut-il privilégier un sous-domaine ou un nouveau domaine pour lancer un service ?
  26. 44:34 Sous-domaine ou nouveau domaine : pourquoi Google refuse-t-il de trancher pour le SEO ?
  27. 44:34 Les pénalités Google se propagent-elles vraiment entre domaine et sous-domaines ?
  28. 45:27 Les pénalités Google se propagent-elles vraiment entre domaine et sous-domaines ?
  29. 48:24 Faut-il vraiment ignorer le PageRank dans le choix entre domaine et sous-domaine ?
  30. 48:33 Les liens entre domaine racine et sous-domaines transmettent-ils réellement du PageRank ?
  31. 49:58 Faut-il vraiment s'inquiéter du contenu dupliqué par scraping ?
  32. 50:14 Peut-on relancer un ancien domaine sans être pénalisé pour le contenu dupliqué par des spammeurs ?
  33. 50:14 Faut-il vraiment signaler chaque URL de scraping via le Spam Report pour obtenir une action de Google ?
  34. 57:15 Faut-il vraiment rapporter le spam URL par URL pour aider Google ?
  35. 58:57 Pourquoi Google refuse-t-il d'afficher vos FAQ en rich results malgré un balisage parfait ?
  36. 59:54 Pourquoi Google n'affiche-t-il pas vos FAQ rich results malgré un balisage parfait ?
  37. 65:15 Peut-on ajouter des FAQ sur ses pages uniquement pour gagner des rich results en SEO ?
  38. 65:45 Peut-on ajouter une FAQ uniquement pour obtenir le rich result sans risquer de pénalité ?
  39. 67:27 Faut-il encore optimiser les balises rel=next/prev pour la pagination ?
  40. 70:10 Faut-il vraiment indexer toutes les pages de catégories pour optimiser son crawl budget ?
  41. 70:18 Faut-il vraiment arrêter de mettre les pages catégories en noindex ?
  42. 72:04 Le nombre de fichiers JavaScript ralentit-il vraiment l'indexation Google ?
  43. 72:24 Googlebot rend-il vraiment tout le JavaScript en une seule passe ?
📅
Official statement from (5 years ago)
TL;DR

Google states that it's not necessary to submit the entirety of paginated pages (page 2, 3, 100…) in the XML sitemap for large sites. With the rel=next/prev attribute being abandoned, Google can handle pagination on its own without a specific signal. In practice, a streamlined sitemap focused on strategic pages is sufficient — but be careful about crawl budget and the actual indexing of deep pages.

What you need to understand

Why does Google believe that not all paginated pages deserve a spot in the sitemap?

Pagination often generates hundreds or even thousands of URLs on large e-commerce sites or directories. Submitting page=1 to page=547 in the XML sitemap creates a massive, complex file that can be difficult to maintain and potentially counterproductive.

Google assumes that if page 1 is discovered, the bot will follow the internal links to page 2, 3, etc. Therefore, the sitemap does not need to serve as an exhaustive list — it should highlight the strategic URLs you want to index first.

What has changed with the end of rel=next/prev?

Until March 2019, Google recommended the rel=next/prev attribute to explicitly signal paginated series. This signal has been abandoned as Google claimed to detect it automatically in 99% of cases.

Since then, no specific markup is required. Each paginated page is processed individually by the algorithm, without automatic grouping under a common canonical URL. It is up to you to decide whether page=2 deserves indexing or not.

Which pages are considered important?

Google does not provide an exhaustive list, but the idea is clear: prioritize unique and high-value content. Product pages, blog articles, strategic landing pages — anything that drives organic traffic or conversions.

Intermediate paginated pages (page 12 of 87) rarely bring unique SEO value. They often duplicate the same filters, the same template, with just a different list of items. Unless for specific cases (e.g., page 2 ranking on a specific long tail), their indexing is not a priority.

  • Only submit strategic pages: flagship products, main categories, editorial content
  • Let the bot discover pagination through typical internal linking
  • Monitor actual indexing with Google Search Console to ensure important pages are indeed crawled
  • Avoid giant XML sitemaps that dilute the signal and complicate maintenance
  • No worries if page=2 isn’t in the sitemap — Google will find it if it's linked from page=1

SEO Expert opinion

Is this statement consistent with observed practices in the field?

Yes and no. On well-linked sites with a correct crawl budget, Google indeed discovers paginated pages without issue. Server logs show that Googlebot naturally follows links from page=1 → page=2 → page=3.

However, on sites with a constrained crawl budget (millions of pages, complex architecture, slow response times), deep paginated pages are never visited if they do not appear in the sitemap. [To Verify] if your site exceeds 100k indexable pages — the absence of a sitemap can drastically slow down discovery.

In what cases does this rule not apply?

If your paginated pages have unique and rankable content, excluding them from the sitemap is a mistake. A classic example: a forum with specific discussions per page, or a classifieds site where each page=X targets a different search intent.

Similarly, if your pagination uses client-side JavaScript without HTML fallback, Google may struggle to discover subsequent pages. In this case, the sitemap becomes essential to guarantee indexing — even if Google claims to manage without it.

What nuances should be added to this recommendation?

Google says "important pages," but does not define the criteria. An e-commerce site with 10,000 products spread across 500 category pages: should you submit only page=1, or page=1 to page=10? No official answer.

My field opinion: if a paginated page generates documented organic traffic (via Search Console), it deserves to be in the sitemap. Otherwise, focus on content hubs (page=1 of categories, product sheets) and leave the rest to natural crawling.

Attention: Excluding all paginated pages from the sitemap can mask real indexing issues. Regularly check coverage reports in Search Console to detect orphaned or ignored URLs.

Practical impact and recommendations

What concrete steps should you take to optimize your XML sitemap?

Audit your current sitemap: how many paginated pages are submitted, and how many are truly indexed? If you have 5,000 URLs page=X in the sitemap but only 200 are indexed, that’s unnecessary noise.

Reduce the sitemap to strategic pages: main categories, flagship products, editorial content. For pagination, keep page=1 consistently — and possibly page=2 to page=5 if they generate identifiable traffic in Search Console.

How do you verify that important pages are crawled without the sitemap?

Cross-reference data from Google Search Console (coverage report, indexed pages) with your server logs. If a strategic page never appears in Googlebot logs, it is not being discovered — add it to the sitemap.

Use the URL Inspection tool in Search Console to force a one-time crawl of a critical paginated page. If Google rejects it or marks it as "Detected, currently not indexed," dig into the reasons: duplicated content, incorrect canonical, blocking robots.txt.

What mistakes should you absolutely avoid?

Do not abruptly remove all paginated pages from the sitemap without analyzing their real SEO contribution. Some pages=X rank on specific long tails — removing them could drastically reduce traffic.

Avoid submitting URLs with multiple parameters (page=2&sort=price&filter=brand): Google often sees them as duplicate content. Prefer canonical pagination URLs, without unnecessary filters.

  • Audit the current sitemap: ratio of submitted URLs / indexed URLs
  • Identify paginated pages generating organic traffic via Search Console
  • Keep page=1 of each paginated series in the sitemap
  • Exclude deeper paginated pages without unique SEO value
  • Monitor server logs to verify the real crawl of important pages
  • Test indexing via URL Inspection on a sample of excluded pages
In summary: an effective XML sitemap is selective, not exhaustive. Submit the pages that truly matter for your business and visibility. For large sites with complex pagination, optimizing the sitemap can be technical — managing crawl budget, detecting orphaned pages, and balancing indexing/noindexing, the traps are many. If you lack time or internal expertise, hiring a specialized SEO agency can help you audit your architecture finely and build an optimized sitemap without risking traffic loss.

❓ Frequently Asked Questions

Dois-je supprimer toutes les pages paginées de mon sitemap XML ?
Non, conservez au minimum page=1 de chaque série. Si certaines pages paginées génèrent du trafic organique identifiable, gardez-les également.
Google crawle-t-il automatiquement les pages 2, 3, 4… si elles ne sont pas dans le sitemap ?
Oui, à condition que votre maillage interne soit correct et que le crawl budget soit suffisant. Sur les très gros sites, ce n'est pas garanti.
L'attribut rel=next/prev est-il encore utile en SEO ?
Non, Google l'a officiellement abandonné en 2019. Il est ignoré par le moteur et n'apporte plus aucun bénéfice.
Comment savoir si une page paginée mérite d'être dans le sitemap ?
Vérifiez dans Search Console si elle génère des impressions ou des clics. Si oui, elle a une valeur SEO et mérite d'être soumise.
Peut-on utiliser une balise canonical sur les pages paginées pour les regrouper ?
C'est possible, mais risqué. Canoniser toutes les pages vers page=1 peut empêcher l'indexation de contenus uniques présents sur page=2 ou page=3. À utiliser avec précaution.
🏷 Related Topics
Domain Age & History Crawl & Indexing AI & SEO JavaScript & Technical SEO Pagination & Structure PDF & Files Search Console

🎥 From the same video 43

Other SEO insights extracted from this same Google Search Central video · duration 1h14 · published on 04/06/2020

🎥 Watch the full video on YouTube →

Related statements

💬 Comments (0)

Be the first to comment.

2000 characters remaining
🔔

Get real-time analysis of the latest Google SEO declarations

Be the first to know every time a new official Google statement drops — with full expert analysis.

No spam. Unsubscribe in one click.