Que dit Google sur le SEO ? /
Quiz SEO Express

Testez vos connaissances SEO en 3 questions

Moins de 30 secondes. Decouvrez ce que vous savez vraiment sur le referencement Google.

🕒 ~30s 🎯 3 questions 📚 SEO Google

Declaration officielle

Googlebot essaie de crawler les URLs avec une ardoise vierge et ne conserve pas de liste HSTS. Il accède directement aux URLs HTTP sans appliquer les règles HSTS du navigateur.
0:34
🎥 Vidéo source

Extrait d'une vidéo Google Search Central

⏱ 1:39 💬 EN 📅 28/10/2020 ✂ 5 déclarations
Voir sur YouTube (0:34) →
Autres déclarations de cette vidéo 4
  1. 0:03 Googlebot ignore-t-il vraiment les redirections 307 HSTS ou y a-t-il un piège ?
  2. 0:34 Les redirections 307 HSTS sont-elles réellement invisibles pour le SEO ?
  3. 1:05 Googlebot suit-il vraiment les redirections HTTP vers HTTPS comme un navigateur classique ?
  4. 1:05 Les redirections 307 HSTS peuvent-elles nuire au référencement de votre site ?
📅
Declaration officielle du (il y a 5 ans)
TL;DR

Googlebot crawle les URLs HTTP sans tenir compte des listes HSTS préchargées par les navigateurs. Concrètement, il tente d'accéder directement aux URLs en HTTP même si votre site force HTTPS via HSTS. Pour un SEO, ça signifie que vos redirections 301 HTTP vers HTTPS doivent rester en place et performantes — impossible de compter sur HSTS pour guider le bot.

Ce qu'il faut comprendre

Qu'est-ce que HSTS et pourquoi les navigateurs l'utilisent-ils ?

HTTP Strict Transport Security (HSTS) est un mécanisme de sécurité qui force les navigateurs à toujours accéder à un site via HTTPS. Une fois qu'un navigateur a visité un site avec HSTS activé, il mémorise cette règle et refuse ensuite toute connexion HTTP — même si l'utilisateur tape http:// dans la barre d'adresse.

Les navigateurs maintiennent également des listes HSTS préchargées (preload lists) qui contiennent des milliers de domaines ayant demandé à être forcés en HTTPS dès la première visite. Chrome, Firefox, Safari embarquent ces listes directement. Résultat : pour ces domaines, le navigateur n'envoie jamais de requête HTTP initiale.

Comment Googlebot se comporte-t-il face à HSTS ?

Googlebot fonctionne différemment. Il ne conserve aucune liste HSTS entre ses crawls. Chaque URL est crawlée avec une ardoise vierge, comme si le bot n'avait jamais visité le site auparavant.

Concrètement ? Si Googlebot trouve une URL en http:// dans son index, dans un lien externe ou dans votre sitemap XML, il tentera de la crawler en HTTP. Il ne convertira pas automatiquement l'URL en https:// avant la requête, contrairement aux navigateurs modernes qui appliquent HSTS.

Pourquoi Google a-t-il fait ce choix technique ?

La raison tient à la neutralité du crawl. Googlebot doit pouvoir découvrir et indexer le web tel qu'il existe réellement, avec ses redirections, ses erreurs de configuration et ses URLs HTTP encore accessibles. Si le bot appliquait HSTS, il masquerait des problèmes de configuration importants.

Par exemple, un site qui aurait oublié de mettre en place ses redirections 301 mais compterait sur HSTS pour forcer HTTPS passerait inaperçu. Les utilisateurs avec navigateurs compatibles accéderaient bien au HTTPS, mais Googlebot — et les anciens navigateurs — tomberaient sur du HTTP. Googlebot teste donc la réalité brute du serveur, pas une version optimisée par le client.

  • Googlebot ne mémorise aucune règle HSTS entre ses sessions de crawl
  • Les URLs HTTP dans les liens, sitemaps ou index sont crawlées en HTTP
  • Vos redirections 301 HTTP → HTTPS restent indispensables pour le SEO
  • HSTS protège les utilisateurs finaux mais n'influence pas le comportement du bot
  • Cette approche révèle les erreurs de configuration serveur que HSTS masquerait côté client

Avis d'un expert SEO

Cette déclaration est-elle cohérente avec les observations terrain ?

Oui, et c'est vérifiable empiriquement. Les logs serveur montrent régulièrement des requêtes Googlebot en HTTP sur des domaines pourtant dans la HSTS preload list. Si vous analysez vos access logs, vous trouverez des hits Googlebot sur le port 80 même après des années de migration HTTPS complète.

Cette réalité contraste avec le comportement des crawlers de monitoring (Pingdom, GTmetrix) qui, eux, appliquent souvent HSTS. Googlebot maintient délibérément une approche "first principles" — il veut savoir ce que le serveur répond réellement à une requête HTTP brute, sans présupposé.

Quelles implications pour les migrations HTTPS mal finies ?

C'est là que ça coince. Beaucoup de sites passés en HTTPS ont négligé leurs redirections HTTP, comptant sur HSTS ou sur le fait que "plus personne n'utilise HTTP". Faux. Googlebot utilise HTTP comme point d'entrée par défaut pour de nombreuses URLs.

Si vos redirections 301 HTTP → HTTPS sont absentes, lentes ou mal configurées (chaînes de redirections, timeouts), Googlebot perd du crawl budget. Pire : il peut indexer des versions HTTP obsolètes ou rencontrer des erreurs 404 là où la version HTTPS fonctionne. J'ai vu des sites perdre 20-30% de leurs pages indexées après une migration HTTPS parce que les redirections HTTP étaient défaillantes — mais invisibles côté utilisateur grâce à HSTS. [A verifier] si votre propre configuration n'a pas ce défaut caché.

Dans quels cas cette règle a-t-elle le plus d'impact ?

Trois scénarios critiques. Un : les sites avec beaucoup de backlinks HTTP anciens. Googlebot suit ces liens en HTTP, et si la redirection est cassée, le jus SEO se perd. Deux : les sitemaps XML contenant encore des URLs HTTP par erreur — Googlebot les crawle telles quelles.

Trois : les sites avec versions HTTP et HTTPS coexistantes (oui, ça arrive encore en 2025, notamment sur des intranets ou des sous-domaines oubliés). Sans redirections propres, Google peut indexer les deux versions et diluer le ranking. HSTS ne vous sauve pas de ce duplicate content — seules des redirections 301 serveur font le job.

Attention : Si vous avez migré vers HTTPS et que vos positions ont chuté sans raison apparente, vérifiez en priorité que vos redirections HTTP → HTTPS sont bien en place, rapides (< 200ms) et sans chaînes. Les outils de monitoring côté client ne révèlent pas ce problème puisque HSTS masque le HTTP pour les navigateurs modernes.

Impact pratique et recommandations

Que faut-il vérifier immédiatement sur votre site ?

Première étape : auditez vos redirections HTTP → HTTPS avec un outil qui simule Googlebot (Screaming Frog en mode Googlebot, ou curl avec user-agent Googlebot). Ne vous fiez pas à votre navigateur — il applique HSTS et vous montre une version faussée de la réalité bot.

Vérifiez que chaque URL HTTP retourne un code 301 Moved Permanently vers son équivalent HTTPS, sans chaîne de redirections intermédiaires. Une chaîne HTTP → HTTP → HTTPS gaspille du crawl budget et dilue le PageRank transmis. Testez aussi la vitesse de réponse de ces redirections — un serveur lent sur le port 80 ralentit l'ensemble du crawl.

Comment auditer vos logs serveur pour détecter les problèmes ?

Analysez vos logs d'accès serveur (access logs Apache/Nginx) en filtrant par user-agent Googlebot et protocole HTTP. Si vous voyez des 404, 500 ou des timeouts sur des URLs HTTP alors que les versions HTTPS fonctionnent, vous avez un problème invisible côté utilisateur.

Cherchez aussi les patterns de crawl. Si Googlebot passe beaucoup de temps sur des URLs HTTP qui redirigent toutes, c'est du crawl budget gaspillé. Idéalement, mettez à jour vos liens internes et votre sitemap pour pointer directement en HTTPS — ça réduit la charge serveur et accélère le crawl. Mais ne supprimez jamais les redirections HTTP, même après des années : les backlinks externes pointent encore majoritairement en HTTP.

Quelles erreurs éviter absolument ?

Erreur numéro un : désactiver le port 80 après une migration HTTPS en pensant que HSTS suffit. Googlebot tentera de crawler en HTTP, échouera, et désindera progressivement vos pages. J'ai vu un e-commerce perdre 60% de son trafic organique en trois mois après avoir fermé le port 80 "pour des raisons de sécurité".

Erreur deux : configurer des redirections 302 (temporaires) au lieu de 301. Google finit par les traiter comme des 301, mais avec un délai. Erreur trois : négliger les sous-domaines ou les versions www/non-www en HTTP — Googlebot crawle toutes les variantes et peut créer du duplicate content si les redirections ne couvrent pas tous les cas.

  • Tester toutes les URLs HTTP avec curl ou Screaming Frog en mode Googlebot
  • Vérifier que les redirections HTTP → HTTPS retournent un 301, pas un 302
  • Éliminer les chaînes de redirections (HTTP → HTTP → HTTPS)
  • Mettre à jour le sitemap XML pour pointer exclusivement en HTTPS
  • Analyser les logs serveur pour détecter les erreurs HTTP invisibles côté client
  • Maintenir le port 80 ouvert avec redirections, ne jamais le fermer complètement
Googlebot ignore HSTS et crawle en HTTP par défaut. Vos redirections 301 HTTP → HTTPS doivent être parfaites, rapides et sans chaîne. Auditez régulièrement vos logs serveur pour détecter les problèmes invisibles côté client. Si vous constatez des incohérences dans votre crawl ou des pertes d'indexation inexpliquées, une analyse approfondie de votre configuration HTTPS/HTTP est indispensable. Ces diagnostics techniques peuvent être complexes à mener seul — faire appel à une agence SEO spécialisée pour un audit serveur complet garantit que rien n'échappe à votre vigilance et que vos redirections sont optimales pour Googlebot.

❓ Questions frequentes

Est-ce que Googlebot applique les règles HSTS entre deux crawls d'un même site ?
Non. Googlebot crawle chaque URL avec une ardoise vierge, sans mémoriser les headers HSTS précédents. Chaque session de crawl ignore les règles HSTS, même si le site les a envoyées lors de crawls antérieurs.
Dois-je conserver mes redirections 301 HTTP vers HTTPS indéfiniment ?
Oui, absolument. Googlebot et les backlinks externes continuent d'utiliser des URLs HTTP. Supprimer ces redirections entraînerait des erreurs 404 et une perte progressive d'indexation.
HSTS préchargé protège-t-il mon site dans les résultats de recherche Google ?
HSTS protège les utilisateurs finaux en forçant HTTPS dans leur navigateur, mais n'affecte pas le crawl de Googlebot. Pour le SEO, seules vos redirections serveur et votre configuration robots.txt/sitemap comptent.
Que se passe-t-il si mon sitemap XML contient des URLs HTTP par erreur ?
Googlebot tentera de les crawler en HTTP. Si vos redirections fonctionnent, il suivra vers HTTPS, mais vous gaspillez du crawl budget. Corrigez le sitemap pour pointer directement en HTTPS.
Comment vérifier que Googlebot accède bien à mes pages en HTTPS ?
Analysez vos logs serveur en filtrant par user-agent Googlebot. Vérifiez que les URLs crawlées sont en HTTPS et que les requêtes HTTP redirigent correctement. La Search Console montre aussi les URLs indexées avec leur protocole.
🏷 Sujets associes
Crawl & Indexation HTTPS & Securite IA & SEO Nom de domaine

🎥 De la même vidéo 4

Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 1 min · publiée le 28/10/2020

🎥 Voir la vidéo complète sur YouTube →

Declarations similaires

💬 Commentaires (0)

Soyez le premier à commenter.

2000 caractères restants
🔔

Recevez une analyse complète en temps réel des dernières déclarations de Google

Soyez alerté à chaque nouvelle déclaration officielle Google SEO — avec l'analyse complète incluse.

Aucun spam. Désinscription en 1 clic.