Tensoria Réserver un créneau
Parlons de votre projet : 07 82 80 51 40
Automatisation Par Anas R.

Agent IA n8n pour automatiser un audit SEO

Un audit SEO de qualité prend entre 8 et 12 heures. Crawl du site, analyse des performances, revue de la stratégie de contenu, analyse concurrentielle, rédaction du rapport, mise en forme du livrable. Autant de tâches que votre consultant répète à l'identique pour chaque nouveau client.

La bonne nouvelle : la majorité de ce travail est systématique. Ce qui prend du temps, ce n'est pas le raisonnement expert, c'est la collecte de données, leur mise en forme et la rédaction des constats récurrents. C'est exactement là qu'un agent IA d'audit SEO automatisé avec n8n intervient.

Chez Tensoria, nous avons construit et déployé ce type de workflow pour des agences web et des consultants SEO freelances. L'objectif n'est pas de remplacer l'expertise, mais de ramener le temps de production d'un audit de 10 heures à 45 minutes d'analyse experte sur un rapport déjà constitué. Ce que vous faites de ce temps gagné, c'est votre choix : plus de clients, un livrable plus approfondi, ou un modèle d'abonnement de monitoring que vous ne pouviez pas proposer avant.

Cet article présente l'architecture complète du workflow, étape par étape, avec les vraies limites et les pièges à connaître avant de le vendre à un client.

Points clés à retenir

  • Temps réduit de 8-12h à moins d'1h pour la phase de collecte et de rédaction des constats techniques.
  • Stack complète : n8n + DataForSEO + PageSpeed Insights + Ahrefs/Semrush + Claude + génération PDF.
  • Ce que l'IA ne remplace pas : l'interprétation stratégique, la priorisation métier, la relation client.
  • Modèle commercial : l'automatisation ouvre la voie à un abonnement de monitoring mensuel, plus scalable qu'un audit ponctuel.
  • 3 pièges critiques : faux positifs, recommandations génériques, sur-confiance dans les données API.

Le problème : 10 heures d'audit, dont 7 de tâches répétitives

Décomposons honnêtement ce que représente un audit SEO complet. Sur 10 heures de travail, voici la répartition constatée chez les consultants avec qui nous travaillons :

Tâche Temps estimé Automatisable ?
Crawl du site et extraction des erreurs 1h30 Oui, à 100 %
Analyse des performances (PageSpeed, Core Web Vitals) 1h Oui, à 100 %
Revue des balises, titres, metas, structure Hn 1h30 Oui, à 80 %
Analyse des backlinks et profil de liens 1h Oui, à 70 %
Rédaction des constats et recommandations génériques 2h Partiellement (60 %)
Mise en forme du livrable (PDF, présentation) 1h Oui, à 90 %
Analyse stratégique, priorisation, roadmap personnalisée 2h Non (expertise humaine)

Le résultat : 7 à 8 heures de tâches automatisables sur 10. Ce n'est pas l'expertise SEO qui est lente, c'est tout ce qui l'entoure. L'agent IA prend en charge ces 7 heures. Vous récupérez un rapport structuré que vous relisez, affinez et commentez en 45 à 90 minutes.

Ce qu'on automatise et ce qui reste humain

Avant de rentrer dans la technique, poser ce cadre est indispensable. Nous le présentons à chaque client et chaque agence qui nous consulte sur ce type de projet.

Ce que l'agent fait bien

  • Collecter les données techniques : erreurs 4xx/5xx, redirections en chaîne, pages orphelines, balises dupliquées, temps de chargement, score Core Web Vitals.
  • Identifier les patterns récurrents : si 40 pages n'ont pas de balise H1, l'agent le voit en 3 secondes là où vous auriez mis 20 minutes.
  • Rédiger les constats standards : "Les images ne sont pas compressées au format WebP, ce qui pénalise le LCP" est une phrase que vous pouvez confier à Claude sans risque.
  • Générer le livrable : mise en page, tableaux, hiérarchisation par priorité, exportation PDF.

Ce que l'expert garde absolument

  • L'interprétation stratégique : un taux de rebond de 70 % est-il un problème ou une caractéristique normale de ce secteur ?
  • La priorisation selon les objectifs métier : corriger les erreurs 404 ou réécrire les pages catégories ? La réponse dépend du contexte, pas des données brutes.
  • La connaissance du secteur : les mots-clés à travailler en priorité pour un cabinet juridique ne s'inventent pas à partir d'un export Ahrefs.
  • La relation client : expliquer, convaincre, adapter le discours à un dirigeant non technique.

La bonne façon de le présenter à un client

L'agent traite les données, vous traitez la stratégie. Le client paie pour votre jugement, pas pour votre capacité à lancer Screaming Frog. Présentez l'automatisation comme un gage de rigueur et d'exhaustivité, pas comme un raccourci.

Architecture du workflow n8n

Le workflow complet suit cinq étapes distinctes, chacune enchaînée automatiquement. Le déclencheur peut être manuel (vous saisissez une URL) ou planifié (monitoring mensuel automatique).

Vue d'ensemble du workflow

[Déclencheur] URL du site + paramètres

[Module 1] Crawl technique — DataForSEO Tasks API

[Module 2] Performance — PageSpeed Insights API (mobile + desktop)

[Module 3] On-page et backlinks — Ahrefs ou Semrush API

[Module 4] Synthèse — Claude (prompt structuré + données JSON)

[Module 5] Livrable — génération PDF ou Notion

Les modules 1, 2 et 3 tournent en parallèle dans n8n pour réduire le temps d'exécution total. Le module 4 attend la complétion des trois premiers. Le module 5 génère le livrable final à partir de la sortie de Claude.

Pour l'hébergement, n8n Cloud (version gérée) suffit pour démarrer. Si vos données clients sont sensibles, un hébergement auto-géré respectant le RGPD est préférable. Pour estimer le budget total de mise en place, consultez notre article sur le coût d'un projet n8n en 2026.

Étape 1 : le crawl technique avec DataForSEO

DataForSEO propose une Tasks API qui permet de lancer un crawl complet d'un domaine via un simple appel HTTP POST. C'est l'intégration la plus simple pour n8n : un nœud HTTP Request suffit, sans plugin dédié.

Comment fonctionne l'intégration

Vous créez une tâche de crawl en envoyant l'URL cible et vos paramètres (profondeur, user-agent, inclure les ressources externes ou non). DataForSEO lance le crawl de son côté et vous notifie quand les résultats sont prêts. N8n récupère ensuite les résultats via un second appel GET, que vous déclenchez avec un nœud "Wait" ou en mode polling.

Ce que le crawl DataForSEO remonte :

  • Codes de statut HTTP de chaque URL (200, 301, 404, 500...)
  • Balises title et meta description (présentes, dupliquées, trop longues, absentes)
  • Structure des balises Hn (H1 manquant, H1 multiple, hiérarchie cassée)
  • Temps de réponse serveur par page
  • Attributs alt des images (absents ou vides)
  • Pages orphelines (sans lien entrant interne)
  • Redirections en chaîne et boucles de redirection
  • Données Open Graph et Twitter Card

Pour des sites de moins de 5 000 pages, le coût d'un crawl DataForSEO est de l'ordre de 0,10 à 0,30 euro par exécution. Négligeable à l'échelle d'un audit facturé plusieurs centaines d'euros.

Alternative : Screaming Frog en mode CLI

Si vous avez déjà une licence Screaming Frog, son mode ligne de commande permet de déclencher un crawl depuis n8n via un nœud Execute Command (si n8n est auto-hébergé sur la même machine). Le fichier de résultats CSV est ensuite lu et parsé par n8n. Plus de configuration, mais zéro coût d'API supplémentaire.

Étape 2 : performance et Core Web Vitals

L'API PageSpeed Insights de Google est gratuite et couvre l'essentiel des métriques de performance qui impactent le référencement. Un nœud HTTP Request dans n8n suffit pour l'interroger.

Métriques à collecter

  • LCP (Largest Contentful Paint) : temps de chargement du plus grand élément visible. Objectif : sous 2,5 secondes.
  • INP (Interaction to Next Paint) : réactivité aux interactions utilisateur. Objectif : sous 200 ms.
  • CLS (Cumulative Layout Shift) : stabilité visuelle de la page. Objectif : sous 0,1.
  • Score de performance global : sur 100, calculé par Lighthouse.
  • Opportunités d'optimisation : la réponse de l'API liste les problèmes identifiés avec leur impact estimé en secondes.

Lancez l'appel en parallèle pour mobile et desktop : les deux scores peuvent diverger significativement, et Google utilise principalement l'index mobile. Un site qui score 85/100 sur desktop et 32/100 sur mobile a un vrai problème que seul l'appel mobile révèle.

Note pratique

Interrogez au minimum la page d'accueil et les 3 à 5 pages les plus importantes du site (page catégorie principale, page service, article de blog le plus visité si disponible via Search Console). Tester uniquement la homepage donne une image incomplète des performances réelles.

Étape 3 : analyse on-page et concurrence

Cette étape exploite les APIs Ahrefs ou Semrush pour les données que DataForSEO ne couvre pas nativement : profil de backlinks, mots-clés positionnés, analyse des concurrents.

Avec l'API Ahrefs

Les endpoints les plus utiles pour un audit :

  • domain-overview : Domain Rating, nombre de backlinks, referring domains, trafic organique estimé.
  • backlinks : les 100 backlinks les plus forts (avec anchor text et URL source).
  • organic-keywords : les mots-clés positionnés avec leur position et volume de recherche.
  • top-pages : les pages qui génèrent le plus de trafic organique.

Avec l'API Semrush

Architecture similaire. Semrush propose en plus des données intéressantes sur l'analyse concurrentielle automatique : le rapport "Domain vs Domain" compare le profil de mots-clés du site audité avec ses concurrents directs. C'est un différenciateur fort dans le livrable client.

Ce que vous pouvez automatiser sans API payante

Si votre client vous donne accès à son Google Search Console, vous pouvez récupérer via l'API GSC : les impressions, clics et positions par page et par requête, les erreurs d'indexation, et la couverture de l'index. Ces données sont souvent plus précises qu'un export Semrush pour les sites à trafic modeste.

Pour aller plus loin sur l'automatisation des rapports à partir de données structurées, notre article sur l'automatisation de génération de rapports avec l'IA détaille les patterns de structuration de données avant injection dans un LLM.

Étape 4 : synthèse et recommandations avec Claude

C'est l'étape centrale. Toutes les données collectées aux étapes 1 à 3 sont agrégées dans un objet JSON structuré, puis injectées dans un prompt Claude via le nœud HTTP Request de n8n (ou le nœud Anthropic natif).

Structure du prompt

Le prompt se compose de trois parties :

1. Le rôle et le contexte : vous précisez à Claude qu'il est un consultant SEO senior qui analyse un audit technique. Vous lui donnez le contexte du site (secteur, taille, objectifs si connus).

2. Les données structurées : vous injectez le JSON compilé des étapes précédentes. Structurez les données par catégorie (technique, performance, on-page, backlinks) pour que Claude puisse s'y repérer.

3. Les instructions de sortie : vous demandez à Claude de produire un rapport structuré avec des sections prédéfinies, une liste de problèmes classés par priorité (critique, important, à surveiller), et des recommandations actionnables formulées en langage non technique.

Exemple de structure de sortie demandée à Claude

Format de sortie JSON demandé à Claude

{"résumé_exécutif": "...",

"score_global": {"technique": 0-10, "performance": 0-10, "on_page": 0-10},

"problèmes_critiques": [{"titre": "...", "description": "...", "impact": "...", "action": "..."}],

"problèmes_importants": [...],

"points_positifs": [...],

"recommandations_prioritaires": [...],

"prochaines_étapes": "..."}

En demandant une sortie JSON structurée, vous vous assurez que les données de Claude sont directement injectables dans le template de livrable à l'étape suivante, sans parsing manuel.

Quel modèle Claude utiliser ?

Pour un audit complet (contexte potentiellement long avec beaucoup de données), Claude Sonnet est le bon équilibre entre qualité de raisonnement et coût. Évitez Claude Haiku pour cette étape : la qualité des recommandations s'en ressent, surtout sur les problèmes nuancés. Réservez Claude Opus aux cas où le site est complexe et la valeur du contrat justifie la dépense supplémentaire.

Pour calibrer vos prompts et éviter les sorties génériques, notre article sur le prompt engineering avancé en entreprise donne des techniques directement applicables.

Étape 5 : génération du livrable

Trois options selon votre outillage existant.

Option 1 : Google Docs via API

N8n dispose d'un nœud Google Docs natif. Vous maintenez un template Google Docs avec des espaces réservés (, , etc.) et n8n les remplace avec les données issues de Claude. Le résultat est exportable en PDF depuis Google Docs.

Avantage : facile à maintenir, lisible par n'importe qui, facilement brandé aux couleurs de votre agence.

Option 2 : Notion via API

Si vous ou votre client utilisez Notion, l'API permet de créer une page structurée avec blocs de contenu, tableaux et bases de données. Le rapport de monitoring mensuel peut s'afficher dans un espace Notion partagé avec le client, ce qui donne une expérience produit propre.

Avantage : idéal pour le modèle abonnement, le client accède à son historique d'audits directement dans Notion.

Option 3 : génération PDF via API tierce

Des services comme PDFShift ou HTML2PDF exposent une API simple : vous envoyez du HTML formaté, vous recevez un PDF. N8n peut construire le HTML dynamiquement à partir des données Claude, puis appeler l'API de conversion.

Avantage : contrôle total sur la mise en page, livrable professionnel immédiatement partageable par email.

Les pièges à éviter absolument

Ce workflow fonctionne. Mais il y a trois erreurs que nous avons vues répétées et qui compromettent la qualité du livrable ou la relation client.

Les faux positifs du crawl

DataForSEO (comme Screaming Frog) remonte parfois des erreurs qui n'en sont pas. Exemple classique : une page retourne un 404 au crawleur mais fonctionne parfaitement pour un navigateur, parce que le site utilise une authentification par user-agent ou un CDN avec des règles de cache spécifiques. Si votre agent inclut ces faux positifs dans le rapport sans filtre, vous envoyez un rapport avec des "problèmes critiques" qui n'existent pas.

Le remède : ajoutez un nœud de filtrage dans n8n qui élimine les URLs matchant certains patterns (assets statiques, endpoints d'API internes, pages d'administration). Et surtout, relisez toujours la liste des "problèmes critiques" avant d'envoyer le rapport.

Les recommandations génériques de Claude

Sans instructions de prompt très précises, Claude va produire des recommandations génériques du type "optimisez vos balises title avec des mots-clés pertinents". C'est techniquement correct et totalement inutile pour un client qui paie un audit professionnel.

Le remède : votre prompt doit contraindre Claude à s'appuyer exclusivement sur les données fournies et à formuler des recommandations spécifiques au site. Interdisez-lui explicitement les phrases génériques avec une instruction du type : "Chaque recommandation doit citer une URL ou une métrique spécifique issue des données. N'utilise aucune formulation générique."

La sur-confiance dans les données API

Les APIs retournent parfois des données incorrectes ou incomplètes. Le trafic estimé par Ahrefs ou Semrush peut diverger de 50 à 200 % de la réalité pour des petits sites. Si votre agent présente ces chiffres comme des faits dans le rapport, vous vous exposez à une contestation client.

Le remède : dans votre template de rapport, distinguez clairement les données factuelles (issues du crawl réel du site) des estimations (issues des APIs tierces). Mentionnez explicitement la source et sa nature estimative.

Ces pièges ressemblent à ceux que nous avons documentés sur les agents IA n8n en production en général : les problèmes ne viennent pas du workflow, ils viennent de la gestion des exceptions et de la qualité des données sources.

Comment vendre ça : audit ponctuel ou abonnement

L'automatisation change votre modèle économique si vous l'utilisez intelligemment. Deux approches possibles.

L'audit ponctuel augmenté

Vous continuez à proposer des audits ponctuels, mais vous réduisez votre temps de production de 10h à 1h30. Deux options : soit vous maintenez votre tarif actuel et améliorez votre marge, soit vous baissez légèrement votre prix pour être plus compétitif et traiter plus de clients.

Ce modèle est idéal pour démarrer. Il vous permet de valider la qualité du workflow sur de vrais clients avant d'aller plus loin.

L'abonnement de monitoring mensuel

C'est le modèle le plus intéressant à terme. Le client reçoit automatiquement un rapport de monitoring chaque mois : évolution de ses métriques techniques, nouvelles erreurs détectées, progression de ses positions. Vous intervenez trimestriellement pour une revue stratégique.

Structure tarifaire typique :

  • Rapport mensuel automatique : 150 à 300 euros/mois selon la taille du site.
  • Revue stratégique trimestrielle (2h expert) : incluse ou facturée en supplément.
  • Audit initial complet au démarrage : 500 à 1 500 euros selon la complexité.

Ce modèle génère un revenu récurrent prévisible et fidélise le client dans la durée. Avec 15 abonnés à 200 euros/mois, vous générez 3 000 euros/mois de revenu récurrent pour environ 15 à 20 heures de travail mensuel (revues stratégiques + supervision du workflow).

Comment présenter la valeur au client

Ne vendez pas l'"audit automatisé". Vendez la vigilance continue sur la santé SEO de son site. Le client ne paie pas pour un outil, il paie pour avoir quelqu'un qui surveille et alerte. L'automatisation est votre levier interne, pas votre argument commercial.

Les coûts opérationnels pour 20 audits par mois

Poste de coût Fourchette mensuelle
Hébergement n8n (Cloud ou VPS) 25 à 50 euros
DataForSEO (crawl 20 sites) 5 à 15 euros
API Claude (Anthropic) 20 à 50 euros
Ahrefs ou Semrush (forfait) 50 à 120 euros
Génération PDF (optionnel) 0 à 20 euros
Total pour 20 audits 100 à 255 euros/mois

Soit un coût unitaire de 5 à 13 euros par audit. Pour mesurer le ROI global de votre projet d'automatisation, notre article sur la mesure du ROI des projets IA propose un cadre de calcul directement applicable.

Questions fréquentes

Comptez 3 à 5 jours de configuration pour un workflow complet : crawl DataForSEO, PageSpeed Insights, analyse Ahrefs ou Semrush, synthèse Claude et génération de livrable. La phase la plus longue est la calibration du prompt Claude et la mise en forme du rapport, pas le branchement des APIs.
L'audit automatisé excelle sur la collecte de données (crawl, métriques, signaux techniques) et la détection de problèmes récurrents. L'audit manuel apporte l'analyse stratégique, la compréhension de l'intention de recherche et la connaissance du secteur d'activité du client. Les deux sont complémentaires : l'automatisation prend en charge les 70 % de vérifications systématiques pour que l'expert se concentre sur les 30 % qui font vraiment la différence.
DataForSEO est le choix naturel pour une intégration n8n : il expose une API REST complète, facturable à l'usage, sans infrastructure à maintenir. Screaming Frog est plus adapté si vous avez déjà une licence existante et souhaitez déclencher des crawls via son mode CLI. Pour démarrer, DataForSEO offre le meilleur rapport coût/intégration.
Oui, à condition de positionner clairement ce que l'automatisation couvre (données techniques, métriques, détection de problèmes) et ce que l'expert apporte en plus (interprétation stratégique, priorisation métier, roadmap personnalisée). Le modèle abonnement mensuel fonctionne bien : le client reçoit un rapport de monitoring automatique chaque mois, et l'expert intervient trimestriellement pour la revue stratégique.
Trois risques principaux : les faux positifs (un problème détecté qui n'en est pas un dans le contexte du site), les recommandations génériques (l'IA reprend des bonnes pratiques générales sans tenir compte du secteur ou des objectifs du client), et la sur-confiance dans les données (une API peut retourner des métriques incorrectes sans que le workflow le détecte). La revue humaine des recommandations avant envoi au client est non négociable.
Pour un volume de 20 audits par mois, comptez environ 80 à 150 euros d'APIs (DataForSEO, Ahrefs ou Semrush, Claude), 25 à 50 euros d'hébergement n8n, et 1 à 2 heures de supervision humaine mensuelle. Le coût par audit tombe rapidement sous 10 euros, ce qui rend le modèle économiquement viable même pour des tarifs d'entrée de gamme.

Pour aller plus loin

Construire cet agent est une chose. Le faire tourner de façon fiable en production sur plusieurs dizaines de clients en est une autre. Si vous êtes à l'étape de la conception, voici les ressources qui vous feront gagner du temps.

Vous voulez déployer ce workflow ?

Cadrons l'architecture ensemble et estimons votre ROI réel.

Réserver un échange gratuit
Anas Rabhi, data scientist spécialisé en IA générative
Anas Rabhi Data Scientist & Fondateur de Tensoria

Je suis data scientist spécialisé en IA générative. J'aide les entreprises à économiser du temps grâce à des solutions d'IA sur mesure, adaptées à leur métier. Automatisation de tâches répétitives, assistants internes, traitement intelligent de documents : je conçois des outils qui s'intègrent dans vos processus existants et produisent des résultats concrets.