Pour corriger un mauvais positionnement, analysez d'abord la SERP : type de pages classées, présence de blocs Shopping/Maps/vidéos, intention dominante. Utilisez le bon format de page (catégorie, fiche produit, accueil), optimisez onsite (title, hn, 300-450 mots pour une catégorie), orientez le maillage interne vers les pages transactionnelles, et renforcez le netlinking sur les pages stratégiques après avoir filtré le spam.
L'analyse commence par l'observation de la SERP elle-même : identifier les types de résultats (Google Shopping, Google Maps, vidéos, images) avant même d'optimiser une page. Un site peut être premier en organique et pourtant invisible sous les blocs Shopping. La priorité est de comprendre l'intention de recherche dominante : fiche produit, catégorie, page d'accueil ou contenu informatif.
Deux cas concrets illustrent la méthode. Pour « tableau blanc effaçable », la SERP affiche massivement des fiches produits et catégories, jamais de guides d'achat. Un site qui positionne un article de blog sur cette requête passe à côté de l'intention transactionnelle. L'audit révèle des erreurs de maillage interne (liens vers des guides au lieu de catégories), des titles non optimisés, un excès de contenu sur les pages catégories (500+ mots au lieu de 300-450), et un manque total de backlinks sur les pages stratégiques.
Pour « fabricant machine agricole », la SERP montre uniquement des pages d'accueil. Tenter de ranker avec une page profonde ou un article serait inadapté. L'analyse du dernier résultat révèle une page d'accueil vide, aucun travail de netlinking (26 domaines référents dont 100% de spam), et un TF à zéro. Les opportunités négligées : annuaires spécialisés, Wikipédia, vidéos YouTube optimisées, fiche Google Maps.
Le raisonnement repose sur l'hypothèse que Google classe les pages selon leur alignement avec l'intention de recherche dominante. L'analyse des 5 premiers résultats suffit à identifier le pattern : type de page (accueil, catégorie, fiche produit), volume de contenu, structure hn, présence de backlinks.
Les leviers d'action se hiérarchisent : d'abord vérifier qu'on utilise le bon type de page, puis optimiser l'onsite (title, h1, h2, volume de contenu, maillage interne), enfin renforcer l'offsite (backlinks ciblés sur les pages stratégiques). Le maillage interne doit pousser les pages transactionnelles, jamais l'inverse.
L'approche privilégie la rapidité de diagnostic (quelques minutes par requête) pour identifier les écarts majeurs. Elle s'appuie sur des outils comme Majestic (TF, RD) et SEObserver pour l'analyse des profils de liens. La limite : cette méthode donne une direction, pas un plan d'action exhaustif. Un audit complet nécessite l'analyse de dizaines de requêtes, pas d'une seule.
[Opinion] L'affirmation qu'une catégorie doit contenir 300-450 mots est présentée comme une règle. Selon moi, cette fourchette peut varier selon le secteur et la complexité des produits. Mon expérience montre que certaines catégories high-tech performent mieux avec 600-800 mots structurés en FAQ. Je nuancerais en disant que le volume optimal dépend de la richesse sémantique nécessaire pour différencier les produits.
[Retour d'expérience] Le conseil de placer 1-2 ancres optimisées sur une page catégorie n'ayant jamais reçu d'ancres optimisées est prudent. Cependant, j'ai constaté que sur des sites à faible autorité, même une seule ancre exacte peut déclencher des signaux négatifs si le contexte éditorial est pauvre. Je recommanderais plutôt 1 ancre semi-optimisée + 2-3 ancres naturelles dans un premier temps.
[Généralisation] L'idée que « tous les sites reçoivent du spam » est vraie mais incomplète. Mon analyse montre que la proportion de spam varie fortement selon la visibilité du site. Un site récent ou de niche peut avoir 5-10% de spam, tandis qu'un site e-commerce établi peut atteindre 70-90%. Le filtre « zero spam » de SEObserver est utile mais imparfait : il classe parfois des liens légitimes de faible qualité comme spam.
[A verifier] L'affirmation que Wikipédia est une source privilégiée des LLM est plausible mais mérite confirmation. Les recherches récentes sur GPT-4 et Claude montrent une diversité de sources. Je nuancerais en disant qu'apparaître dans des sources de référence (Wikipédia, annuaires professionnels, médias sectoriels) augmente la probabilité d'être cité, sans garantie.