Declaration officielle
Bloquer un fichier robots.txt rend Google incapable d'explorer d'autres pages du site. Il est crucial que le fichier renvoie une réponse 404 si inexistant ou un contenu valide afin de permettre le crawl.
48:11
Autres déclarations de cette vidéo 25 ▾
- 4:51 Featured Snippets dans les résultats de recherche ⚠
- 5:48 Calcul du budget de crawl ⚠
- 8:04 Gestion du contenu en HTTP et HTTPS ⚠
- 8:45 Comptabilisation du crawl budget avec JavaScript ⚠
- 10:26 Utilisation des meta descriptions par Google ⚠
- 12:10 Pagination et indexation ⚠
- 12:16 Gestion de la pagination et impact sur l'indexation ⚠
- 13:54 Traitement des URLs HTTP et HTTPS ⚠
- 14:20 Liens dans les menus déroulants ⚠
- 14:20 Traitement des liens dans les menus déroulants ⚠
- 15:06 Utilisation et impact des liens site-wide ⚠
- 15:11 Impact des liens site-wide ⚠
- 16:06 Utilisation et importance de la meta description ⚠
- 16:16 Liens internes relatifs versus absolus ⚠
- 16:34 Liens relatifs versus absolus ⚠
- 17:31 Choix des featured snippets ⚠
- 20:00 Utilisation de rel=next et rel=prev ⚠
- 24:11 Snippets en vedette: critères et expansion ⚠
- 28:12 Soumissions internes de résultats de recherche inappropriés ⚠
- 28:16 Progression et visibilité mondiale des rich cards ⚠
- 30:40 Google et le contenu dans les iframes ⚠
- 35:15 Contraintes du budget de crawl pour les sites de grande taille ⚠
- 38:04 Pagination et gestion des filtres sur les shoppings en ligne ⚠
- 48:27 Rendu et indexation de JavaScript ⚠
- 52:57 Indexation du JavaScript ⚠
Declaration officielle du
(il y a 8 ans)
⚠ Une declaration plus recente existe sur ce sujet
Faut-il vraiment utiliser le noindex plutôt que le robots.txt pour désindexer un...
Voir la declaration →
🎥 De la même vidéo 25
Autres enseignements SEO extraits de cette même vidéo Google Search Central · durée 1h13 · publiée le 26/06/2017
🎥 Voir la vidéo complète sur YouTube →
💬 Commentaires (0)
Soyez le premier à commenter.