Un bon brief SEO, c'est 80 % du résultat final d'un article. Mais dans la plupart des agences et des équipes contenu, le brief est soit inexistant, soit bâclé faute de temps. Le rédacteur reçoit un mot-clé et débrouille. L'article sort. Il se classe à la 28e position et n'en bougera jamais.
La promesse d'un agent IA n8n pour générer des briefs SEO n'est pas de remplacer la réflexion stratégique. C'est de supprimer les 2 à 3 heures de travail mécanique (analyse SERP, lecture des concurrents, collecte des mots-clés secondaires) pour que le stratège SEO se concentre sur ce que l'IA ne peut pas faire : choisir un angle différenciant, adapter le ton à la marque, identifier les vrais manques du marché.
Chez Tensoria, nous avons construit et affiné ce type d'agent pour des agences de contenu et des équipes SEO in-house. Cet article présente l'architecture complète, les prompts qui fonctionnent, et les pièges qui transforment un brief automatisé en contenu générique inutile. Si vous voulez d'abord comprendre ce que les agents IA n8n permettent plus largement, notre retour d'expérience sur les agents n8n en production pose les bases.
Pourquoi un brief SEO fait 80 % du résultat
L'idée que le rédacteur est responsable du classement d'un article est l'une des confusions les plus coûteuses en SEO de contenu. Le rédacteur exécute. Si les instructions sont mauvaises, le texte sera mauvais, quelle que soit la qualité de sa plume.
Un brief SEO sérieux répond à des questions précises avant que le rédacteur écrive la première ligne :
- Quelle est l'intention réelle derrière ce mot-clé ? Un internaute qui tape "brief SEO automatique" veut-il comprendre le concept, comparer des outils, ou trouver comment en créer un ? La réponse change tout : la structure, le ton, la profondeur.
- Que couvrent exactement les 10 premiers résultats ? Les angles traités, les formats dominants (liste, tutoriel, comparatif), la longueur médiane.
- Quels angles personne ne traite correctement ? C'est là que se gagne la différenciation réelle.
- Quels mots-clés secondaires et questions associées le contenu doit intégrer ? Pas pour forcer la densité, mais pour couvrir le champ sémantique que Google attend sur ce sujet.
Compiler tout ça manuellement prend entre deux et quatre heures par brief. Sur un calendrier éditorial de 20 articles par mois, c'est 40 à 80 heures englouties sur de la collecte d'information, pas sur de la réflexion stratégique. C'est le problème que l'agent résout.
Brief généré et brief réfléchi : la différence qui compte
Avant de décrire l'architecture, il faut nommer l'écueil principal. Beaucoup d'équipes SEO ont testé des outils de génération automatique de briefs (Frase, Surfer SEO, ou des GPT custom) et ont été déçues : les briefs produits ressemblent à une liste d'éléments extraits mécaniquement du top 10, sans interprétation ni angle.
La distinction fondamentale
Un brief généré compile ce qui existe dans la SERP. Un brief réfléchi identifie ce qui manque, ce que le lecteur cherche vraiment et ce que votre marque peut apporter de distinct. L'agent n8n que nous décrivons ici vise le second objectif, pas le premier.
La différence tient à trois choix architecturaux :
- On scrape les pages concurrentes pour analyser leur structure et leurs angles, pas seulement leurs titres.
- On injecte dans le prompt de Claude le positionnement éditorial de la marque, pas un prompt générique "crée un brief SEO pour ce mot-clé".
- On demande explicitement à Claude d'identifier les angles absents du top 10, pas seulement de résumer ce qui y est.
Architecture du workflow n8n en 6 étapes
Voici la structure que nous avons retenue après plusieurs itérations. Elle est volontairement modulaire : chaque étape est un sous-workflow indépendant, ce qui facilite la maintenance et le débogage. Pour les principes généraux de construction de workflows n8n avec IA, consultez notre guide n8n et IA pour les PME.
| Étape | Outil | Entrée | Sortie |
|---|---|---|---|
| 1. Analyse SERP top 10 | SerpAPI ou DataForSEO | Mot-clé cible | URLs, titres, meta, PAA |
| 2. Extraction structure concurrents | Firecrawl | Top 5 URLs SERP | H2/H3, intro, conclusion, longueur |
| 3. Mots-clés secondaires | DataForSEO ou Ahrefs API | Mot-clé cible | Variations, questions, volume |
| 4. Analyse d'intention | Claude (Anthropic) | Données SERP + structure | Intention qualifiée + angles manquants |
| 5. Génération du brief | Claude (Anthropic) | Toutes les données + positionnement | Brief complet structuré |
| 6. Livrable | Notion API ou Google Docs | Brief généré | Page Notion ou Doc prêt |
Le déclencheur peut être un webhook (un formulaire interne où le SEO saisit le mot-clé et quelques paramètres), un nœud Schedule (traitement batch de liste de mots-clés), ou une lecture depuis une feuille Google Sheets. En pratique, le formulaire webhook est le plus adapté pour les agences : chaque brief est déclenché manuellement, avec un contexte précis.
Étape 1 : analyser la SERP top 10 avec SerpAPI ou DataForSEO
C'est le point de départ. L'agent interroge la SERP via un nœud HTTP Request configuré sur SerpAPI ou DataForSEO. Les deux donnent accès aux résultats organiques, aux "People Also Ask", aux featured snippets et aux recherches associées.
Ce qu'on récupère pour chaque résultat organique :
- URL et domaine
- Titre et meta description
- Position dans la SERP
- Type de résultat (article, page produit, vidéo, forum)
On récupère aussi les questions PAA (People Also Ask) : elles donnent une vision directe de ce que Google considère comme les sous-questions liées à l'intention principale. C'est de l'or pour structurer le plan d'article et anticiper les featured snippets.
Point de vigilance coût
SerpAPI facture à la requête (environ 0,005 dollar par recherche sur le plan de base). Pour 100 briefs par mois, avec 2 à 3 requêtes par brief (résultats organiques, PAA, recherches associées), comptez 1,50 dollar. DataForSEO est souvent moins cher en volume. Ne partez pas sur des APIs gratuites : elles se font bloquer immédiatement en production.
Dans le nœud n8n, on configure la requête HTTP avec les paramètres de localisation (gl: "fr", hl: "fr") pour obtenir les résultats français. La sortie est parsée via un nœud Code pour extraire uniquement les champs utiles et les formater en JSON propre pour les étapes suivantes.
Étape 2 : scraper la structure et les angles des concurrents avec Firecrawl
Les titres et meta des concurrents ne suffisent pas. Il faut lire leur contenu pour comprendre comment ils traitent le sujet : quels sous-thèmes ils couvrent, quel angle ils adoptent, quelles questions ils laissent sans réponse satisfaisante.
On prend les 5 premières URLs organiques (pas les annonces, pas les vidéos YouTube, pas Wikipédia dans certains cas) et on les passe à Firecrawl via son API. Firecrawl retourne le contenu en Markdown, ce qui simplifie considérablement l'extraction de structure.
Ce qu'on extrait pour chaque page :
- Les H2 et H3 : structure de l'article, sous-thèmes traités
- Les 3 premiers paragraphes : angle choisi, promesse éditoriale
- La conclusion ou CTA : positionnement et intention commerciale
- La longueur estimée : via le nombre de tokens pour calibrer la profondeur attendue
Un nœud Loop Over Items dans n8n itère sur les 5 URLs et agrège les résultats. Le tout est concatené en un bloc de contexte structuré que Claude recevra à l'étape suivante.
Limitation réelle à connaître
Certaines pages refusent le scraping (paywall, JavaScript lourd, protection Cloudflare). Sur 5 URLs, il est fréquent d'en perdre 1 à 2. Le workflow doit gérer les erreurs gracieusement : si Firecrawl retourne une erreur sur une URL, on passe à la suivante sans bloquer toute l'exécution. Dans n8n, cela se configure via l'option "On Error" du nœud.
Étape 3 : enrichir avec les mots-clés secondaires et requêtes liées
L'analyse SERP donne l'intention principale. Pour couvrir le champ sémantique correctement, il faut aller plus loin : quels mots-clés secondaires le contenu doit-il intégrer ? Quelles variations de formulation Google associe-t-il au mot-clé principal ?
Deux options selon le budget :
- DataForSEO Keywords Data API : la plus accessible en coût à la requête. On interroge le Keywords For Site ou le Keywords Suggestions endpoint. Retourne les volumes, KD, et variations sémantiques.
- Ahrefs API : plus riche mais réservée aux plans Agency (990 dollars/mois minimum). Utile si votre agence est déjà cliente Ahrefs et cherche à centraliser.
On récupère une liste de 20 à 50 mots-clés secondaires, qu'on filtre dans un nœud Code : on conserve ceux avec un volume supérieur à 50 recherches mensuelles et on élimine les doublons proches. La liste nettoyée rejoint le contexte pour Claude.
On récupère également les recherches associées depuis la réponse SerpAPI de l'étape 1 (section "related_searches"). Ces formulations alternatives révèlent souvent des angles que les mots-clés bruts ne capturent pas.
Étape 4 : qualifier l'intention de recherche avec Claude
C'est la première intervention de Claude dans le workflow. À ce stade, l'agent dispose de toutes les données brutes : SERP, structure des concurrents, mots-clés secondaires, questions PAA. On lui demande d'analyser et interpréter, pas encore de générer le brief.
Le prompt système pour cette étape est court et précis :
Tu es un expert SEO sénior. Analyse les données SERP et de contenu fournies
pour le mot-clé "".
Réponds en JSON avec cette structure :
{
"intention_principale": "informationnelle|transactionnelle|navigationnelle|commerciale",
"profil_lecteur": "description en 1 phrase du lecteur type",
"format_dominant": "tutoriel|liste|comparatif|définition|autre",
"longueur_mediane_mots": nombre,
"angles_present_top10": ["angle 1", "angle 2", ...],
"angles_absents": ["angle manquant 1", "angle manquant 2", ...],
"questions_sans_reponse_satisfaisante": ["question 1", "question 2", ...]
}
La sortie JSON est parsée et stockée dans une variable d'exécution. Les champs angles_absents et questions_sans_reponse_satisfaisante sont les plus précieux : ce sont les opportunités de différenciation réelle.
Étape 5 : générer le plan et les consignes éditoriales
C'est l'étape centrale. Claude reçoit toutes les données compilées (analyse SERP, structure concurrents, mots-clés, analyse d'intention) et génère le brief complet. La qualité du prompt ici est déterminante.
Ce qui distingue un prompt qui produit un brief utile d'un prompt qui génère du slop :
- Injecter le positionnement éditorial de la marque. "Notre site s'adresse à des content managers de PME, ton pragmatique et terrain, on évite le jargon techno, on cite des chiffres concrets" change radicalement le résultat.
- Demander explicitement des consignes négatives. "Ce que le rédacteur ne doit PAS faire" est aussi important que la structure positive.
- Imposer un format de sortie strict. Le brief doit être directement utilisable, pas un essai libre sur le sujet.
Voici la structure du prompt principal que nous utilisons :
Tu es stratège de contenu SEO. Génère un brief complet pour le mot-clé "".
CONTEXTE ÉDITORIAL :
DONNÉES SERP (top 10) :
STRUCTURE DES CONCURRENTS (top 5) :
MOTS-CLÉS SECONDAIRES :
ANALYSE D'INTENTION :
Génère un brief avec ces sections obligatoires :
1. Fiche mot-clé (principal, secondaires, intention, profil lecteur)
2. Longueur cible et format recommandé (avec justification)
3. Angle éditorial différenciateur (exploite les angles_absents)
4. Structure H2/H3 commentée (1 phrase de consigne par section)
5. Questions PAA à traiter et emplacement recommandé
6. Champ lexical à intégrer (20 termes minimum)
7. Ce que le rédacteur ne doit PAS faire (3 à 5 points)
8. Sources suggérées (études, données, exemples concrets)
9. CTA recommandé et intention commerciale
Sois prescriptif, pas descriptif. Chaque consigne doit être actionnable.
Un point critique sur le contexte éditorial : il ne doit pas être dans le prompt statique. Il doit venir d'une base de données (Notion, Google Sheets, ou simplement une variable de workflow) que chaque client peut personnaliser. L'agent qui sert une agence B2B SaaS et celui qui sert un e-commerce doivent produire des briefs radicalement différents, même sur le même mot-clé.
Étape 6 : livrer un document prêt dans Notion ou Google Docs
Le brief généré est formaté et poussé dans le système de gestion de contenu de l'équipe. Deux intégrations natives dans n8n :
- Notion : via le nœud natif Notion de n8n. On crée une page dans une base de données dédiée "Briefs SEO", avec les propriétés (mot-clé, date, statut "À valider") et le contenu du brief dans le corps de la page.
- Google Docs : via le nœud Google Docs ou une requête à l'API Docs. Légèrement plus complexe à formater mais préféré par certaines équipes habituées à Drive.
Dans les deux cas, on ajoute automatiquement :
- Un en-tête avec le mot-clé, la date de génération, et la mention "À valider par le SEO sénior avant assignation"
- Un lien vers la SERP pour accès rapide
- La liste des URLs concurrentes scrapées (pour que le rédacteur puisse les consulter)
Ce dernier point est important : le brief ne remplace pas la lecture humaine des sources. Il la structure et la priorise. Pour les équipes qui utilisent déjà n8n pour d'autres automatisations, ce workflow s'intègre naturellement dans l'écosystème existant, comme décrit dans nos cas d'usage n8n + IA pour les PME.
Le piège à éviter : le brief générique qui produit du contenu sans valeur
C'est le sujet que personne ne traite honnêtement dans les articles sur l'automatisation SEO. Un agent mal configuré produit des briefs qui ressemblent à une restitution du top 10 existant. Le rédacteur suit le brief. L'article sort. Il copie l'existant avec d'autres mots. Google ne le classe pas, ou le pénalise pour contenu similaire.
Les quatre erreurs qui mènent à ce résultat :
Prompt trop générique
Demander à Claude "génère un brief SEO pour [mot-clé]" sans contexte éditorial produit invariablement un brief moyen. Claude optimise pour la satisfaction générale, pas pour votre positionnement spécifique. La solution : rendre le prompt aussi spécifique que possible sur qui vous êtes, à qui vous parlez, et ce que vous apportez que les autres n'apportent pas.
Scraping insuffisant
Se contenter des titres et meta sans lire le contenu réel des concurrents. Un titre "Comment créer un workflow n8n SEO" ne dit rien sur le fait que l'article de 3 000 mots ne couvre pas du tout la partie "coûts réels" ou "pièges de production". C'est dans le corpus que se cachent les lacunes.
Ignorer les questions PAA
Les questions "People Also Ask" sont l'une des sources les plus fiables pour identifier ce que les internautes cherchent réellement derrière un mot-clé. Les ignorer, c'est passer à côté de la moitié de la valeur SEO du brief.
Pas de validation humaine avant assignation
Un brief généré automatiquement doit passer par une relecture de 10 à 15 minutes par un SEO sénior avant d'être envoyé au rédacteur. Pas pour tout réécrire, mais pour valider l'angle différenciateur et ajouter les connaissances terrain que l'agent n'a pas (contexte concurrentiel spécifique, actualité récente, contraintes de marque). C'est ce que nous préconisons systématiquement dans nos missions d'automatisation de processus éditoriaux.
Ce que l'agent ne remplacera jamais
La connaissance de votre audience. Les interviews clients. Les insights terrain que vous avez accumulés. L'angle "personne ne dit ça mais c'est ce que les clients nous répètent en rendez-vous". Ces éléments sont ce qui transforme un article correctement brieffé en article qui génère des leads. L'agent crée les conditions. Le stratège SEO crée la valeur.
Ce que ce workflow change concrètement en production
Pour une agence qui produit 20 articles par mois, voici les ordres de grandeur observés en production :
| Indicateur | Avant agent | Après agent |
|---|---|---|
| Temps de briefing par article | 2 à 4 heures | 20 à 30 minutes (validation) |
| Exhaustivité SERP couverte | Top 3 lu rapidement | Top 10 analysé systématiquement |
| Mots-clés secondaires intégrés | 3 à 5 (intuition) | 15 à 30 validés par données |
| Questions PAA couvertes | Aléatoire | 100 % structurées dans le plan |
| Coût mensuel (20 briefs) | 40 à 80 h x coût horaire | 30 à 80 euros API + 10 h validation |
Le ROI est rapide à calculer. Pour une agence dont les SEO facturent 60 euros de l'heure, chaque brief économise en moyenne 3 heures (valeur : 180 euros). Pour 20 briefs par mois, l'économie est de 3 600 euros. Le coût mensuel de l'agent : moins de 100 euros. Le retour sur investissement est positif dès le premier mois.
Pour comprendre comment calculer le ROI de ce type d'automatisation dans votre contexte, notre article sur la mesure du ROI des projets IA donne un cadre concret. Et si la question du budget de construction du workflow vous préoccupe, notre analyse des coûts d'un projet n8n en 2026 vous donnera des ordres de grandeur fiables.
Questions fréquentes sur l'agent n8n de génération de briefs SEO
Automatiser votre production de contenu ?
Construisons votre agent SEO n8n ensemble, adapté à votre stack et vos volumes.
Pour aller plus loin
- Agents IA n8n en production : retour d'expérience sur 3 agents déployés en conditions réelles, avec les coûts et les pièges rencontrés.
- Guide n8n et IA pour les PME : comprendre les 3 niveaux d'automatisation avec n8n avant de se lancer dans un agent complexe.
- 5 workflows n8n + IA qui font gagner 10 h par semaine : des automatisations plus simples pour commencer et mesurer la valeur réelle.
- Mesurer le ROI de vos projets IA : cadre concret pour évaluer le retour sur investissement avant de construire.
- Coût d'un projet n8n en 2026 : estimations réelles de budget pour un workflow de complexité moyenne à élevée.
- Automatiser la génération de rapports avec l'IA : le même pattern d'orchestration appliqué aux rapports d'activité.
Aller plus loin
Découvrez notre expertise n8n à Toulouse ou consultez nos services d'automatisation. Pour un accompagnement personnalisé, contactez notre équipe.