Construire un cahier des charges SEO exhaustif en dialoguant avec Claude avant de coder. Technique : demander explicitement à l'IA de poser toutes les questions manquantes, puis raffiner avec un modèle premium. Exemple concret : générateur de contenu Python qui scrape Google, extrait le contenu des 10 premiers résultats et rédige en markdown via Deepseek pour réduire les coûts de 98%.
Le processus repose sur un dialogue itératif avec Claude pour construire un cahier des charges exhaustif avant toute ligne de code. L'approche se déroule en deux temps : d'abord une conversation avec Claude classique (modèle Sonnet) pour poser les bases du projet, puis une seconde passe avec Claude Code (modèle Opus) pour raffiner.
Le projet exemple : un générateur de contenu Python qui lit un fichier keywords.txt, scrape les 10 premiers résultats Google via API (Samscrapper), extrait le contenu de chaque page, génère un plan puis rédige en markdown. L'URL à pousser est intégrée naturellement une fois dans le texte. L'API Deepseek remplace OpenAI/Anthropic pour réduire les coûts de 98%.
La clé méthodologique : terminer chaque prompt par "pose-moi toutes les questions nécessaires". Cette instruction force l'IA à identifier les zones floues (langue, format, gestion d'erreurs, architecture). L'auteur insiste sur le fait qu'un bon cahier des charges améliore drastiquement la V0 du code et réduit les allers-retours.
L'auteur optimise pour la rapidité de prototypage et le coût d'exécution, pas pour la production industrielle. Fichiers texte plutôt qu'interface web, un seul fichier Python, pas de micro-services. Cette architecture convient à un usage personnel ou à des tests, pas à un SaaS multi-utilisateurs.
Le recours à une API de scraping (Samscrapper) pour éviter les plantages navigateur est justifié pour des volumes importants. L'extraction du contenu des 10 premiers résultats sert de base RAG implicite pour mieux caler l'intention de recherche.
Le "skill rédaction" mentionné est une compétence pré-configurée dans Claude Code qui embarque des règles anti-patterns IA (éviter les tirets longs, "dans un monde en constante évolution", etc.). Cette approche par skills n'est pas documentée publiquement par Anthropic — il s'agit probablement de fichiers de contexte ou de configuration custom.
[Opinion] L'affirmation "coûts 98% inférieurs avec Deepseek" manque de contexte chiffré. Selon moi, cette comparaison tient si on parle de génération longue (milliers de tokens) avec GPT-4 ou Claude Opus. Pour des tâches courtes ou nécessitant une qualité premium, l'économie réelle sera moindre. Mon expérience montre que Deepseek performe bien sur du contenu factuel mais décroche sur des sujets complexes ou du tone of voice exigeant.
[Retour d'expérience] L'auteur avoue que Claude devient "paresseux" et nécessite des relances. Je confirme ce pattern : les modèles récents refusent parfois d'exécuter des tâches qu'ils délèguent à l'utilisateur. Forcer la recherche en ligne ("cherche toi-même") fonctionne mais rallonge les échanges.
[Généralisation] Le conseil "toujours conclure par pose-moi toutes les questions" est présenté comme universel. Je nuancerais : sur des projets simples, cette approche génère du bruit. Elle devient indispensable dès qu'on touche à plusieurs systèmes (APIs, bases de données, sécurité). L'auteur reconnaît d'ailleurs bâcler certaines réponses pour gagner du temps — ce qui fragilise la méthode si le projet doit évoluer.
[A vérifier] La page Wikipédia recensant les "mauvaises pratiques des IA" n'est pas sourcée. Il existe effectivement des listes communautaires (Reddit, GitHub) mais pas de référentiel officiel Wikipédia à ma connaissance.