Que dit Google sur le SEO ? /
Quiz SEO Express

Testez vos connaissances SEO en 3 questions

Moins de 30 secondes. Decouvrez ce que vous savez vraiment sur le referencement Google.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Declaration officielle

Les requêtes POST ne peuvent pas être mises en cache par Google, contrairement aux requêtes GET. Si vos pages effectuent des requêtes POST vers des APIs, elles consommeront davantage de crawl budget à chaque crawl car elles ne peuvent pas bénéficier du cache.
🎥 Vidéo source

Extrait d'une vidéo Google Search Central

💬 EN 📅 25/08/2022 ✂ 13 déclarations
Voir sur YouTube →
Autres déclarations de cette vidéo 12
  1. Faut-il vraiment se préoccuper du crawl budget pour votre site ?
  2. Comment Google définit-il réellement le crawl budget et quels leviers peut-on actionner ?
  3. Le crawl budget est-il un concept inventé par Google ou par les SEO ?
  4. Google n'indexe-t-il vraiment qu'une fraction du web à cause de ses coûts de stockage ?
  5. Le crawl budget d'une nouvelle section est-il hérité de la qualité du site principal ?
  6. Les codes 503 et 429 peuvent-ils vraiment réduire votre crawl budget ?
  7. Peut-on vraiment piloter son crawl budget depuis Google Search Console ?
  8. HTTP/2 améliore-t-il vraiment votre crawl budget ?
  9. Pourquoi vos URLs 'découvertes mais non crawlées' révèlent-elles un problème de fond ?
  10. Faut-il bloquer l'indexation de vos fichiers JavaScript pour optimiser le crawl budget ?
  11. Les 404 et robots.txt gaspillent-ils vraiment votre crawl budget ?
  12. Faut-il bloquer vos fichiers JavaScript décoratifs pour optimiser votre crawl budget ?
📅
Declaration officielle du (il y a 3 ans)
TL;DR

Google ne peut pas mettre en cache les requêtes POST, contrairement aux GET. Résultat : chaque crawl redemande intégralement ces ressources, ce qui bouffe du crawl budget. Si vos pages s'appuient sur des APIs POST pour afficher du contenu, vous payez la facture à chaque passage du bot.

Ce qu'il faut comprendre

Pourquoi Google ne cache-t-il pas les requêtes POST ?

La différence entre GET et POST n'est pas qu'une convention technique — elle porte en elle une intention sémantique. Les requêtes GET sont censées être idempotentes : même URL, même résultat, à chaque fois. Google peut donc tranquillement stocker la réponse en cache et la resservir lors du prochain crawl.

Les POST, elles, sont conçues pour modifier un état ou transmettre des données variables. Googlebot ne peut pas présumer que deux appels identiques retourneront le même contenu — d'où l'impossibilité de cacher quoi que ce soit.

En quoi cela impacte-t-il le crawl budget ?

Chaque requête POST doit être exécutée intégralement à chaque crawl. Pas de raccourci, pas de 304 Not Modified, pas de réutilisation d'une réponse précédente. Si votre page charge 10 endpoints POST pour assembler son DOM, le bot doit tous les interroger à chaque passage.

Le crawl budget, c'est une enveloppe limitée de requêtes que Google consent à effectuer sur votre site dans un laps de temps donné. Plus vous consommez de ressources par page, moins il en reste pour explorer d'autres URLs — ou pour recrawler plus souvent vos pages importantes.

Quelles architectures sont particulièrement concernées ?

Les Single Page Applications (SPA) qui assemblent leur contenu via des appels API sont les premières visées. Si ces appels passent en POST — souvent par habitude ou par mauvaise pratique —, le bot subit la latence complète à chaque visite.

Les sites headless ou JAMstack qui s'appuient sur des API externes pour hydrater les pages côté client risquent le même écueil. Le crawl devient coûteux, lent, et Google peut décider de revenir moins souvent.

  • GET = cacheable : Google réutilise les réponses précédentes si rien n'a changé
  • POST = toujours frais : chaque requête est exécutée intégralement, même si le contenu est identique
  • Un site avec beaucoup d'appels POST consomme plus de crawl budget par page
  • Les architectures JS modernes (SPA, headless) sont particulièrement exposées si mal configurées

Avis d'un expert SEO

Cette déclaration est-elle cohérente avec ce qu'on observe sur le terrain ?

Oui — et c'est même documenté depuis des années dans les specs HTTP. Ce n'est pas une lubie de Google, c'est une propriété intrinsèque du protocole. Les POST ne sont pas idempotentes, donc non cachables par défaut (sauf si explicitement autorisé par des headers spécifiques, ce qui reste rare).

Côté crawl budget, les observations terrain confirment : les sites qui abusent des POST pour charger du contenu voient leur fréquence de crawl stagner, surtout si la latence des APIs est élevée. Google ne peut pas se permettre d'attendre 500 ms par endpoint POST sur des millions de pages.

Quelle nuance faut-il apporter à cette affirmation ?

Martin Splitt ne précise pas à quel point cette surconsommation est critique. Est-ce 10 % de crawl budget en plus ? 50 % ? Ça dépend du nombre d'appels POST, de leur latence, de la taille des réponses. [A vérifier] : Google n'a jamais publié de benchmark chiffré sur ce sujet.

Deuxième nuance : tous les POST ne se valent pas. Un POST qui retourne systématiquement le même JSON peut techniquement être caché côté serveur avec un CDN bien configuré. Googlebot verra alors une réponse instantanée, même si la requête initiale est un POST. Mais c'est à vous de mettre ça en place — Google ne le fera pas pour vous.

Dans quels cas cette règle ne pose-t-elle pas de problème ?

Si vos pages POST ne servent qu'à des actions utilisateur non indexables (formulaires de contact, panier, checkout), aucun impact SEO. Google ne crawle pas ces interactions — ou alors il ne devrait pas, si vous avez bien balisé vos noindex.

Autre cas : les sites avec un crawl budget largement excédentaire. Un blog de 50 pages peut se permettre quelques POST mal placés sans que ça change quoi que ce soit. Le problème se pose vraiment sur les gros catalogues e-commerce ou les portails de contenu avec des dizaines de milliers d'URLs.

Attention : certains frameworks JS (React, Vue, Angular) utilisent POST par défaut pour leurs appels API, même quand GET serait plus approprié. Vérifiez vos configurations avant de partir en prod.

Impact pratique et recommandations

Que faut-il auditer en priorité sur son site ?

Commencez par identifier tous les appels API qui participent au rendu du contenu indexable. Chrome DevTools, onglet Network, filtrez par "Fetch/XHR" et traquez les POST. Si un endpoint sert du contenu critique pour le SEO (titres, descriptions, prix, avis), il doit passer en GET.

Ensuite, vérifiez la latence de ces requêtes. Un POST qui répond en 50 ms pose moins de souci qu'un GET qui met 2 secondes. Mais à latence égale, GET gagne toujours — donc autant basculer tout ce qui peut l'être.

Comment convertir un POST en GET sans tout casser ?

La plupart du temps, c'est une question de convention. Si votre POST ne fait que récupérer des données sans modifier d'état côté serveur, il peut devenir un GET. Passez les paramètres dans l'URL ou en query string plutôt que dans le body.

Si vous avez besoin de transmettre beaucoup de données (par exemple, des filtres complexes), envisagez un système de hash : stockez la requête côté serveur, retournez un identifiant, et appelez cet identifiant via GET. Google pourra alors cacher la réponse.

Quelles erreurs éviter absolument ?

Ne basculez pas tous vos POST en GET sans réfléchir. Les actions qui modifient des données (ajout au panier, soumission de formulaire, vote) doivent rester en POST pour des raisons de sécurité et de sémantique HTTP.

Autre piège : convertir un POST en GET sans ajuster les headers de cache côté serveur. Si votre API retourne un Cache-Control: no-cache, Google ne mettra rien en cache même avec un GET. Configurez correctement vos ETag et Last-Modified.

  • Auditez tous les appels API qui servent du contenu indexable
  • Identifiez ceux qui sont en POST alors qu'ils pourraient être en GET
  • Mesurez la latence de chaque endpoint pour prioriser les optimisations
  • Basculez en GET les requêtes idempotentes (lecture seule)
  • Configurez les headers de cache côté serveur (Cache-Control, ETag)
  • Vérifiez que Googlebot peut bien exécuter vos APIs (pas de blocage CORS ou firewall)
  • Surveillez l'évolution du crawl budget dans la Search Console après modification
Passer vos APIs de POST à GET n'est pas une révolution technique, mais ça demande une refonte méthodique de vos endpoints et une coordination entre équipes dev et SEO. Si votre architecture JS est complexe — SPA multi-couches, headless CMS, intégrations tierces —, ces ajustements peuvent vite devenir sensibles. Faire appel à une agence SEO spécialisée dans les architectures modernes permet de sécuriser cette migration sans casser l'existant, tout en garantissant que chaque changement serve réellement votre crawl budget.

❓ Questions frequentes

Un site avec quelques requêtes POST est-il pénalisé par Google ?
Non, pas de pénalité à proprement parler. Mais il consommera plus de crawl budget, ce qui peut ralentir la fréquence de crawl sur les gros sites. Sur un petit site, l'impact est négligeable.
Peut-on forcer Google à cacher une réponse POST ?
Non, Google respecte la sémantique HTTP. Un POST n'est pas cachable par défaut. Vous pouvez en revanche mettre en place un cache côté serveur ou CDN pour accélérer la réponse, mais Googlebot fera quand même la requête.
Les frameworks JS modernes utilisent-ils POST par défaut ?
Pas systématiquement, mais certains outils de génération d'API ou de state management (Redux, Apollo) peuvent configurer POST par défaut pour des raisons de flexibilité. Il faut vérifier et ajuster cas par cas.
Comment savoir si mes POST posent problème ?
Regardez dans la Search Console : si votre fréquence de crawl stagne malgré du contenu frais régulier, et que vous avez beaucoup d'appels POST, c'est un signal. Mesurez aussi le temps de réponse moyen de vos APIs.
Un CDN peut-il compenser l'absence de cache Google sur les POST ?
Oui, partiellement. Un CDN bien configuré peut servir une réponse instantanée même pour un POST, réduisant la latence côté Googlebot. Mais ça ne change rien au fait que le bot doit quand même exécuter la requête — vous ne récupérez pas le crawl budget économisé.
🏷 Sujets associes
Anciennete & Historique Crawl & Indexation IA & SEO JavaScript & Technique Performance Web

🎥 De la même vidéo 12

Autres enseignements SEO extraits de cette même vidéo Google Search Central · publiée le 25/08/2022

🎥 Voir la vidéo complète sur YouTube →

Declarations similaires

💬 Commentaires (0)

Soyez le premier à commenter.

2000 caractères restants
🔔

Recevez une analyse complète en temps réel des dernières déclarations de Google

Soyez alerté à chaque nouvelle déclaration officielle Google SEO — avec l'analyse complète incluse.

Aucun spam. Désinscription en 1 clic.