Que dit Google sur le SEO ? /
SEO DeclarationsLabs SEOComment utiliser Claude pour rédiger un cahier des charge...

Comment utiliser Claude pour rédiger un cahier des charges SEO complet avant de coder ?

Florent PEREZ Florent PEREZ Publie le 02/04/2026 ⏲ 14:58 Intermediaire

Construire un cahier des charges SEO exhaustif en dialoguant avec Claude avant de coder. Technique : demander explicitement à l'IA de poser toutes les questions manquantes, puis raffiner avec un modèle premium. Exemple concret : générateur de contenu Python qui scrape Google, extrait le contenu des 10 premiers résultats et rédige en markdown via Deepseek pour réduire les coûts de 98%.

Quelle méthode l'auteur propose-t-il pour cadrer un projet SEO avec l'IA ?

Le processus repose sur un dialogue itératif avec Claude pour construire un cahier des charges exhaustif avant toute ligne de code. L'approche se déroule en deux temps : d'abord une conversation avec Claude classique (modèle Sonnet) pour poser les bases du projet, puis une seconde passe avec Claude Code (modèle Opus) pour raffiner.

Le projet exemple : un générateur de contenu Python qui lit un fichier keywords.txt, scrape les 10 premiers résultats Google via API (Samscrapper), extrait le contenu de chaque page, génère un plan puis rédige en markdown. L'URL à pousser est intégrée naturellement une fois dans le texte. L'API Deepseek remplace OpenAI/Anthropic pour réduire les coûts de 98%.

La clé méthodologique : terminer chaque prompt par "pose-moi toutes les questions nécessaires". Cette instruction force l'IA à identifier les zones floues (langue, format, gestion d'erreurs, architecture). L'auteur insiste sur le fait qu'un bon cahier des charges améliore drastiquement la V0 du code et réduit les allers-retours.

Quel cadre de lecture expert ressort de cette approche ?

L'auteur optimise pour la rapidité de prototypage et le coût d'exécution, pas pour la production industrielle. Fichiers texte plutôt qu'interface web, un seul fichier Python, pas de micro-services. Cette architecture convient à un usage personnel ou à des tests, pas à un SaaS multi-utilisateurs.

Le recours à une API de scraping (Samscrapper) pour éviter les plantages navigateur est justifié pour des volumes importants. L'extraction du contenu des 10 premiers résultats sert de base RAG implicite pour mieux caler l'intention de recherche.

Le "skill rédaction" mentionné est une compétence pré-configurée dans Claude Code qui embarque des règles anti-patterns IA (éviter les tirets longs, "dans un monde en constante évolution", etc.). Cette approche par skills n'est pas documentée publiquement par Anthropic — il s'agit probablement de fichiers de contexte ou de configuration custom.

Quels points méritent un regard critique ?

[Opinion] L'affirmation "coûts 98% inférieurs avec Deepseek" manque de contexte chiffré. Selon moi, cette comparaison tient si on parle de génération longue (milliers de tokens) avec GPT-4 ou Claude Opus. Pour des tâches courtes ou nécessitant une qualité premium, l'économie réelle sera moindre. Mon expérience montre que Deepseek performe bien sur du contenu factuel mais décroche sur des sujets complexes ou du tone of voice exigeant.

[Retour d'expérience] L'auteur avoue que Claude devient "paresseux" et nécessite des relances. Je confirme ce pattern : les modèles récents refusent parfois d'exécuter des tâches qu'ils délèguent à l'utilisateur. Forcer la recherche en ligne ("cherche toi-même") fonctionne mais rallonge les échanges.

[Généralisation] Le conseil "toujours conclure par pose-moi toutes les questions" est présenté comme universel. Je nuancerais : sur des projets simples, cette approche génère du bruit. Elle devient indispensable dès qu'on touche à plusieurs systèmes (APIs, bases de données, sécurité). L'auteur reconnaît d'ailleurs bâcler certaines réponses pour gagner du temps — ce qui fragilise la méthode si le projet doit évoluer.

[A vérifier] La page Wikipédia recensant les "mauvaises pratiques des IA" n'est pas sourcée. Il existe effectivement des listes communautaires (Reddit, GitHub) mais pas de référentiel officiel Wikipédia à ma connaissance.

  • Terminez vos prompts par "pose-moi toutes les questions nécessaires" pour forcer l'exhaustivité. Cette instruction pousse l'IA à identifier les angles morts (langue, formats, gestion d'erreurs) que vous avez oubliés. Gagnez du temps en corrigeant le cahier des charges plutôt que le code.
  • Utilisez un modèle léger (Sonnet) pour le brainstorming, un modèle premium (Opus) pour la validation. Le premier itère vite et peu cher, le second détecte les incohérences et complète les specs. Doublez la passe de vérification en uploadant le cahier des charges généré dans une nouvelle conversation.
  • Déléguez la recherche factuelle à l'IA plutôt que de tout spécifier vous-même. Format des APIs, rate limits, bonnes pratiques : demandez explicitement "cherche en ligne" ou "utilise mon navigateur". Vous conservez l'arbitrage final sans perdre de temps en documentation.
  • Préférez des APIs de scraping payantes aux solutions maison pour des volumes >1000 requêtes/mois. Le coût marginal (quelques euros pour des dizaines de milliers de scrapes) élimine les bugs de parsing et les IP bannies. Samscrapper, ScraperAPI ou équivalents évitent 90% des problèmes techniques.
  • Intégrez des "skills" pré-configurés pour standardiser la qualité du output. Un fichier de règles rédactionnelles (anti-patterns IA, style, structure) améliore la cohérence sans répéter les instructions à chaque génération. Créez un dossier de compétences réutilisables pour vos projets récurrents.
  • Choisissez Deepseek ou équivalents low-cost pour la génération de contenu à volume. Les économies deviennent significatives au-delà de 10k tokens générés par jour. Réservez GPT-4/Claude pour le planning et la logique métier, pas pour le remplissage de templates.
  • Priorisez la simplicité d'architecture (fichier unique, CLI, TXT) pour les prototypes. Interface web, base de données, authentification : ces couches multiplient par 5 le temps de développement. Validez d'abord la mécanique fonctionnelle avant d'industrialiser.
Pourquoi passer par deux modèles Claude différents (Sonnet puis Opus) ?
Sonnet itère rapidement et peu cher pour poser les bases. Opus détecte mieux les incohérences et complète les specs. Cette stratégie réduit le coût global tout en maximisant la qualité du cahier des charges final.
Qu'est-ce qu'un "skill" dans Claude Code et comment le créer ?
Un skill est une compétence pré-configurée (fichier de contexte ou règles) qui standardise le comportement de l'IA sur une tâche récurrente. L'auteur a créé un skill rédaction listant les anti-patterns IA à éviter. La méthode de création n'est pas détaillée mais semble relever de fichiers custom uploadés.
Deepseek remplace-t-il vraiment OpenAI avec 98% d'économie sur tous les cas d'usage ?
Non. Le gain est maximal sur de la génération longue et répétitive (articles, descriptions produits). Pour des tâches complexes nécessitant raisonnement ou créativité, GPT-4 ou Claude restent supérieurs. L'économie réelle dépend du volume et du type de contenu.
Faut-il obligatoirement utiliser une API de scraping payante ?
Pour des volumes industriels (>1000 requêtes/mois) ou une fiabilité critique, oui. Les solutions maison plantent face aux CAPTCHAs et rotations d'IP. En dessous de 500 requêtes/mois, un scraper local avec proxy rotation peut suffire.
Comment intégrer naturellement une URL interne dans un contenu généré par IA ?
Spécifier dans le prompt : ancre proche du mot-clé cible, une seule occurrence, contexte sémantique cohérent. Fournir des exemples de liens bien intégrés améliore le résultat. Vérifier manuellement les premiers outputs pour ajuster les instructions.