Que dit Google sur le SEO ? /
Quiz SEO Express

Testez vos connaissances SEO en 3 questions

Moins de 30 secondes. Decouvrez ce que vous savez vraiment sur le referencement Google.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Declaration officielle

Pour un site établi qui grandit lentement, il est normal que 97% du crawl soit du refresh et seulement 3% de la découverte. C'est différent pour les sites d'actualités ou petites annonces avec beaucoup de nouveau contenu.
🎥 Vidéo source

Extrait d'une vidéo Google Search Central

💬 EN 📅 18/02/2022 ✂ 24 déclarations
Voir sur YouTube →
Autres déclarations de cette vidéo 23
  1. Google compte-t-il vraiment tous les liens visibles dans Search Console ?
  2. Faut-il vraiment concentrer son contenu sur moins de pages pour ranker ?
  3. Les critères d'avis produits Google s'appliquent-ils même si votre site n'est pas classé comme site d'avis ?
  4. L'API Indexing de Google fonctionne-t-elle vraiment pour tous les contenus ?
  5. L'E-A-T influence-t-il vraiment le classement Google ou n'est-ce qu'un mythe ?
  6. Les mentions de marque sans lien ont-elles un impact sur votre référencement ?
  7. Les commentaires d'utilisateurs améliorent-ils vraiment le classement dans Google ?
  8. Les certificats SSL premium influencent-ils vraiment le référencement Google ?
  9. PDF et HTML avec le même contenu : faut-il craindre une cannibalisation dans les SERPs ?
  10. Peut-on vraiment piloter l'indexation des PDF via les headers HTTP ?
  11. Faut-il encore utiliser rel=next et rel=prev pour la pagination ?
  12. Googlebot peut-il vraiment indexer vos contenus en défilement infini ?
  13. Faut-il vraiment indexer toutes les pages de son site ?
  14. Faut-il s'inquiéter de la page référente affichée dans Google Search Console ?
  15. Faut-il vraiment rediriger l'ancien sitemap en 301 ou soumettre le nouveau directement ?
  16. Comment Google détermine-t-il réellement la vitesse de crawl de votre site ?
  17. Vitesse de crawl et Core Web Vitals : pourquoi Google fait-il la distinction ?
  18. Pourquoi Google ralentit-il son crawl après un changement d'hébergement ?
  19. Le paramètre de taux de crawl est-il vraiment un plafond et non un objectif ?
  20. Le CTR peut-il vraiment pénaliser le reste de votre site ?
  21. Le maillage interne est-il vraiment l'élément le plus déterminant pour le SEO ?
  22. Le linking interne agit-il vraiment instantanément après recrawl ?
  23. Faut-il s'inquiéter si Google ne crawle pas toutes vos pages ?
📅
Declaration officielle du (il y a 4 ans)
TL;DR

Google confirme qu'un site établi avec croissance organique normale affiche typiquement 97% de crawl refresh contre seulement 3% de découverte. Cette répartition n'est pas un problème — c'est un signe de maturité. Les sites d'actualité ou petites annonces avec flux massif de contenu neuf montrent des ratios inverses, mais ce n'est pas la norme pour la majorité des sites.

Ce qu'il faut comprendre

Qu'est-ce que le crawl refresh par rapport au crawl de découverte ?

Le crawl refresh désigne le passage de Googlebot sur des URLs déjà connues et indexées pour vérifier si le contenu a changé. Le crawl de découverte, lui, concerne les nouvelles URLs jamais visitées auparavant.

John Mueller précise qu'un ratio 97/3 est normal pour un site établi qui évolue progressivement. Beaucoup de SEO paniquent devant ces chiffres dans la Search Console, pensant que Google ignore leur nouveau contenu. C'est une lecture erronée.

Pourquoi ce ratio varie-t-il selon le type de site ?

Un site d'actualité ou de petites annonces génère des centaines ou milliers d'URLs quotidiennement. Le ratio penche alors vers la découverte — logique, puisque le volume de nouveautés explose.

Un site corporate, e-commerce classique ou blog qui ajoute 10-20 pages par mois ? Le gros du crawl budget se concentre sur le rafraîchissement de l'existant. C'est mathématique : 500 pages établies réparties sur 30 jours = beaucoup de refresh, peu de découverte.

Cette répartition signifie-t-elle que mon nouveau contenu est ignoré ?

Non. 3% de découverte sur un site crawlé 10 000 fois par semaine = 300 passages sur des URLs nouvelles. Largement suffisant pour indexer vos nouveaux articles ou fiches produits.

Le problème ne vient pas du ratio mais de la qualité des signaux : maillage interne déficient, sitemap XML obsolète, contenus orphelins. Si vos nouvelles pages mettent 3 semaines à être indexées, ce n'est pas à cause du ratio refresh/découverte.

  • Un ratio 97/3 est normal et sain pour un site établi avec croissance modérée
  • Les sites à forte production quotidienne (news, classifieds) affichent des ratios inversés — mais ce sont des cas particuliers
  • Le crawl refresh permet à Google de détecter les mises à jour de contenu existant, ce qui reste crucial pour la fraîcheur
  • Un ratio penché vers le refresh n'empêche pas l'indexation rapide si l'architecture est propre

Avis d'un expert SEO

Cette déclaration est-elle cohérente avec ce qu'on observe terrain ?

Oui, totalement. Les clients qui me contactent en panique avec un ratio 95/5 ont souvent un site de 200-300 pages qui publie 2 articles par semaine. Ils comparent leurs métriques à un média qui sort 50 papiers par jour — comparaison absurde.

Le problème, c'est que Google ne fournit aucun benchmark chiffré dans la Search Console. Les SEO interprètent ces données sans contexte et tirent des conclusions hâtives. Mueller apporte enfin un cadre de référence.

Quelles nuances faut-il apporter à cette règle ?

Un site établi qui ajoute subitement 500 pages (refonte, nouvelle section, migration) devrait voir son ratio basculer temporairement. Si ça ne bouge pas, c'est là qu'il y a un souci — mauvais maillage, sitemap non soumis, crawl budget saturé par des facettes inutiles.

Autre point : Mueller parle de « site qui grandit lentement ». Qu'est-ce que « lentement » ? [À vérifier] — aucune métrique précise. 10 pages/mois ? 50 ? La formulation reste floue.

Enfin, cette déclaration ne dit rien sur la fréquence du refresh. Un site crawlé 50 fois/jour en refresh, c'est excellent. Un site crawlé 2 fois/semaine avec 97% de refresh, c'est peut-être un signal de désintérêt de Google pour votre contenu. Le ratio seul ne suffit pas.

Dans quels cas ce ratio devrait-il nous alerter ?

Si vous lancez un gros chantier de contenu (100+ pages neuves) et que le ratio reste bloqué à 97/3 après 4 semaines, creusez. Soit votre maillage interne est défaillant, soit vos nouvelles URLs sont techniques (filtres, pagination) et Google les considère comme low-value.

Attention : Un ratio faible en découverte combiné à un crawl budget total en chute peut signaler un problème de qualité perçue du site. Analysez en parallèle le volume total de crawl, pas juste la répartition.

Impact pratique et recommandations

Que faut-il faire concrètement avec cette information ?

D'abord, arrêtez de paniquer devant un ratio 95/5 si votre site publie 3 pages par semaine. C'est normal. Concentrez-vous plutôt sur le délai moyen d'indexation de vos nouvelles URLs — métrique autrement plus actionnable.

Ensuite, vérifiez que vos nouveaux contenus sont correctement maillés depuis des pages crawlées fréquemment (homepage, hubs de catégorie). Une page orpheline n'apparaîtra jamais dans le crawl de découverte, quelle que soit sa qualité.

Quelles erreurs éviter suite à cette déclaration ?

Ne tentez pas de « forcer » un ratio découverte plus élevé en publiant du contenu bas de gamme juste pour faire du volume. Google ajustera son crawl budget à la baisse si vous inondez l'index de pages faibles.

Évitez aussi de bloquer le crawl refresh via robots.txt ou meta noindex sur des pages établies pour « libérer du budget ». Le refresh permet à Google de capter vos mises à jour — c'est un signal de fraîcheur essentiel, surtout sur les pages commerciales.

Comment optimiser le crawl pour maximiser la découverte utile ?

Submettez vos nouveaux contenus via l'API Indexing (si éligibles) ou au moins via sitemap XML mis à jour quotidiennement. Ajoutez un bloc « Derniers articles » sur votre homepage ou menu principal pour garantir un lien direct.

Surveillez les logs serveur pour identifier les URLs crawlées en boucle sans valeur (facettes, paramètres de session, doublons). Bloquez-les proprement pour concentrer le budget sur le contenu stratégique.

  • Vérifier dans la Search Console le ratio refresh/découverte de votre site
  • Comparer ce ratio à votre rythme réel de publication (pages/mois)
  • Analyser le délai moyen d'indexation de vos nouvelles URLs — si >7 jours, creuser le maillage interne
  • S'assurer que le sitemap XML est mis à jour automatiquement à chaque nouvelle page
  • Auditer les logs serveur pour repérer les crawls inutiles (facettes, doublons, paramètres)
  • Implémenter des liens internes depuis des pages à fort crawl vers les nouveautés
  • Éviter de bloquer le refresh sur des pages établies — c'est contre-productif
Un ratio 97% refresh / 3% découverte est normal pour un site établi publiant modérément. Plutôt que de tenter d'inverser ce ratio artificiellement, concentrez-vous sur l'efficacité du crawl : maillage interne solide, sitemap frais, logs nettoyés. Si cette optimisation technique vous semble complexe à orchestrer seul — entre l'analyse des logs, le nettoyage des URL inutiles et l'architecture du maillage — un accompagnement par une agence SEO spécialisée peut vous faire gagner des mois et éviter des erreurs coûteuses sur le crawl budget.

❓ Questions frequentes

Un ratio 99% refresh / 1% découverte est-il inquiétant ?
Pas forcément. Si votre site publie 1-2 pages par mois sur un total de 500 pages établies, ce ratio est cohérent. Vérifiez plutôt que ces nouvelles pages s'indexent bien sous 7 jours.
Comment calculer le ratio refresh/découverte de mon site ?
Dans la Search Console, section 'Statistiques d'exploration', filtrez par 'Type de réponse' et comparez les volumes 'Crawl de rafraîchissement' vs 'Crawl de découverte'. Le ratio se calcule sur le total des requêtes.
Faut-il bloquer le crawl refresh pour libérer du budget découverte ?
Non, c'est contre-productif. Le refresh permet à Google de capter vos mises à jour de contenu et signaux de fraîcheur. Bloquer le refresh dégrade la perception de votre site.
Les sites e-commerce doivent-ils avoir un ratio différent ?
Ça dépend. Un catalogue stable avec peu de nouveaux produits affichera un ratio proche de 97/3. Un site avec lancements quotidiens de références pourra voir 70/30 voire 50/50 — c'est contextuel.
Comment forcer Google à crawler mes nouvelles pages plus vite ?
Maillage interne depuis la homepage ou catégories principales, sitemap XML à jour, soumission via API Indexing si éligible. Le ratio refresh/découverte s'ajustera naturellement si l'architecture est propre.
🏷 Sujets associes
Contenu Crawl & Indexation Pagination & Structure

🎥 De la même vidéo 23

Autres enseignements SEO extraits de cette même vidéo Google Search Central · publiée le 18/02/2022

🎥 Voir la vidéo complète sur YouTube →

Declarations similaires

💬 Commentaires (0)

Soyez le premier à commenter.

2000 caractères restants
🔔

Recevez une analyse complète en temps réel des dernières déclarations de Google

Soyez alerté à chaque nouvelle déclaration officielle Google SEO — avec l'analyse complète incluse.

Aucun spam. Désinscription en 1 clic.