Tensoria Réserver un créneau
Parlons de votre projet : 07 82 80 51 40
Avocats & Juridique Par Anas R.

Checklist Conformité IA Avocats : RGPD, AI Act, CNB

Bureau d'avocat avec un document de conformité et un écran affichant une interface IA juridique, symbolisant la mise en conformité RGPD et AI Act pour les cabinets

Vous êtes avocat et vous utilisez, ou envisagez d'utiliser, un outil d'intelligence artificielle dans votre cabinet. Recherche jurisprudentielle, revue de contrats, rédaction assistée : les cas d'usage sont concrets et les gains de temps documentés. Mais avez-vous vérifié que votre usage est conforme ?

Le problème : trois cadres réglementaires distincts encadrent l'utilisation de l'IA par un avocat en France. Le RGPD, avec des amendes pouvant atteindre 4 % du chiffre d'affaires. L'AI Act européen, dont les obligations sur les systèmes à haut risque entrent en vigueur en août 2026. Et la déontologie CNB, qui impose des exigences spécifiques liées au secret professionnel et au Règlement Intérieur National (RIN).

Aucune ressource en ligne ne combine ces trois cadres en une seule checklist actionnable. C'est ce que fait cet article : 15 points de contrôle concrets, un modèle de clause contractuelle, et les pièges à éviter. Une ressource à garder sous le coude avant de signer avec un éditeur ou de déployer un nouvel outil.

En bref

Cet article couvre les 15 points de conformité qu'un cabinet d'avocats doit vérifier avant d'utiliser un outil IA. Les trois cadres : RGPD (DPA, base légale, AIPD, transferts), AI Act (obligations utilisateur professionnel, août 2026), déontologie CNB (secret professionnel, responsabilité, RIN). Plus : un tableau récapitulatif, 7 questions à poser à tout fournisseur, les erreurs les plus courantes, et un modèle de clause contractuelle.

Obligations RGPD pour un cabinet utilisant l'IA

Le RGPD est le premier cadre à maîtriser. Un cabinet d'avocats est responsable de traitement au sens du règlement européen. Lorsqu'il utilise un outil d'IA qui traite des données personnelles (noms de clients, pièces de procédure, données contractuelles), il doit respecter des obligations précises. La CNIL a d'ailleurs publié plusieurs recommandations spécifiques sur l'IA et la protection des données.

Quelle base légale pour le traitement IA en cabinet ?

Tout traitement de données personnelles nécessite une base légale. Pour un cabinet d'avocats utilisant l'IA, deux bases sont envisageables :

  • L'intérêt légitime (article 6.1.f du RGPD) : applicable lorsque l'IA est utilisée pour optimiser des tâches internes (recherche, analyse de contrats). Il faut documenter la mise en balance entre l'intérêt du cabinet et les droits des personnes concernées.
  • L'exécution du contrat (article 6.1.b) : applicable lorsque le traitement IA est directement lié à la mission confiée par le client (analyse de son dossier, recherche dans ses documents).

Le consentement est rarement la base appropriée dans une relation avocat-client, car il doit être libre et révocable, ce qui est difficilement compatible avec un mandat en cours.

Le DPA est-il obligatoire avec un fournisseur d'IA ?

Oui, systématiquement. Le Data Processing Agreement (accord de sous-traitance au sens de l'article 28 du RGPD) est obligatoire dès lors que le fournisseur d'IA traite des données personnelles pour le compte du cabinet. Ce DPA doit préciser :

  • L'objet et la durée du traitement
  • La nature et la finalité du traitement
  • Les catégories de données traitées
  • Les mesures de sécurité techniques et organisationnelles
  • Les obligations en cas de violation de données
  • Les conditions de sous-traitance ultérieure
  • L'interdiction d'utiliser les données pour entraîner le modèle

Ce dernier point est critique. Si votre fournisseur utilise les requêtes et documents de votre cabinet pour améliorer son modèle, c'est une violation du RGPD et du secret professionnel.

Que faire pour les transferts de données hors UE ?

La localisation des serveurs est un point de vigilance majeur pour la conformité IA des avocats. Si l'outil IA traite les données sur des serveurs situés hors de l'Union européenne, des garanties supplémentaires sont nécessaires :

  • Clauses contractuelles types (CCT) de la Commission européenne
  • Data Privacy Framework UE-US (pour les fournisseurs américains certifiés, mais sa pérennité juridique reste incertaine)
  • Évaluation de la législation du pays tiers (Cloud Act américain, par exemple)

En pratique, pour un cabinet d'avocats traitant des données couvertes par le secret professionnel, la recommandation est claire : exiger un hébergement dans l'UE. C'est la seule option qui ne nécessite pas d'analyse juridique complexe sur les transferts. Pour approfondir les enjeux de sécurité des données dans un contexte professionnel, consultez notre article sur la sécurité des données IA en entreprise.

L'analyse d'impact (AIPD) est-elle obligatoire ?

Dans la majorité des cas d'usage IA en cabinet, oui. La CNIL impose une AIPD lorsque le traitement est susceptible d'engendrer un risque élevé pour les personnes. Les données traitées par un cabinet (données judiciaires, informations sous secret professionnel, parfois données de santé) entrent quasi systématiquement dans cette catégorie.

L'AIPD doit être réalisée avant la mise en production de l'outil et documentée dans le registre des traitements.

AI Act : ce qui s'applique à un avocat utilisateur

Le règlement européen sur l'intelligence artificielle (AI Act) est entré en vigueur le 1er août 2024, avec une application progressive. Les obligations concernant les systèmes d'IA à haut risque s'appliquent à partir d'août 2026. Et certains outils utilisés par les avocats pourraient entrer dans cette catégorie.

Votre outil IA est-il classé "haut risque" ?

L'AI Act classe comme à haut risque les systèmes d'IA utilisés dans l'administration de la justice et les processus démocratiques (Annexe III, point 8). Concrètement, un outil d'IA utilisé pour :

  • Aider à la recherche et à l'interprétation de faits et de la loi
  • Appliquer la loi à un ensemble concret de faits

peut être qualifié de système à haut risque. En revanche, un outil de gestion administrative (facturation, agenda) ou de simple recherche documentaire sans composante décisionnelle n'entre pas dans cette catégorie.

L'enjeu pour un avocat : la qualification dépend de l'usage, pas uniquement de l'outil. Un même logiciel peut être à haut risque pour un usage et ne pas l'être pour un autre. Pour un panorama complet de l'AI Act adapté aux entreprises, notre guide AI Act 2026 pour PME détaille les obligations par catégorie.

Quelles obligations pour l'avocat en tant qu'utilisateur (deployer) ?

L'AI Act distingue le fournisseur (provider) de l'utilisateur professionnel (deployer). En tant que deployer d'un système à haut risque, l'avocat doit :

  1. Utiliser le système conformément aux instructions du fournisseur
  2. S'assurer que les données d'entrée sont pertinentes au regard de la finalité du système
  3. Surveiller le fonctionnement du système et signaler tout dysfonctionnement
  4. Informer les personnes physiques qu'elles font l'objet d'une décision assistée par IA (article 26)
  5. Réaliser une analyse d'impact sur les droits fondamentaux avant mise en service
  6. Conserver les logs générés automatiquement par le système pendant une durée appropriée

Quel calendrier pour se mettre en conformité AI Act ?

L'application est progressive :

  • Février 2025 : interdiction des pratiques d'IA prohibées (déjà en vigueur)
  • Août 2025 : obligations relatives aux modèles d'IA à usage général
  • Août 2026 : obligations pour les systèmes à haut risque

Un cabinet qui utilise déjà des outils IA a donc jusqu'à août 2026 pour vérifier la conformité de ses outils et documenter ses usages. Ce n'est pas un délai confortable : c'est le minimum pour auditer, négocier avec les fournisseurs et mettre en place les processus internes.

Déontologie CNB : secret professionnel, RIN et avis sur l'IA

Au-delà du RGPD et de l'AI Act, l'avocat est soumis à des obligations déontologiques spécifiques qui encadrent strictement l'utilisation de l'IA. Le Conseil National des Barreaux a pris position sur le sujet.

Le secret professionnel face aux outils IA

Le secret professionnel de l'avocat est une obligation absolue, d'ordre public, qui couvre l'ensemble des informations confiées par le client ou recueillies dans le cadre de la mission. Le Règlement Intérieur National (RIN) le rappelle sans ambiguïté.

Concrètement, cela signifie qu'un avocat ne peut pas :

  • Soumettre des documents clients à un outil IA dont les données transitent par des serveurs non sécurisés
  • Utiliser un outil qui intègre les données soumises dans son modèle d'entraînement
  • Partager des informations couvertes par le secret avec un tiers (y compris un sous-traitant technologique) sans garanties de confidentialité contractualisées
  • Stocker des données clients sur des infrastructures soumises à des législations extraterritoriales incompatibles avec le secret

La responsabilité de l'avocat reste entière

Point fondamental : l'utilisation de l'IA ne transfère aucune responsabilité. L'avocat qui signe une consultation, des conclusions ou un acte reste pleinement responsable de son contenu, qu'il l'ait rédigé seul ou avec l'aide d'une IA.

Le CNB insiste sur ce principe : aucune délégation du jugement juridique à un outil automatisé n'est admise. L'IA est un outil d'aide à la décision, jamais un décideur. L'avocat doit vérifier, valider et assumer chaque production.

Le principe déontologique clé

L'IA assiste, l'avocat décide. Cette règle n'est pas une recommandation : c'est une obligation déontologique. Un avocat qui s'appuie aveuglément sur un résultat IA sans vérification engage sa responsabilité professionnelle et s'expose à des poursuites disciplinaires.

L'avis du CNB sur l'IA et ses recommandations

Le CNB a formulé plusieurs recommandations à destination des avocats :

  • Former les équipes : chaque collaborateur utilisant l'IA doit comprendre ses limites et les risques associés
  • Documenter les usages : tenir un registre interne des outils IA utilisés, de leur finalité et des données traitées
  • Informer les clients : la transparence sur l'utilisation de l'IA dans le traitement du dossier est recommandée
  • Vérifier systématiquement : tout résultat produit par l'IA doit être contrôlé par un avocat avant utilisation
  • Choisir des outils conformes : privilégier les solutions hébergées dans l'UE, avec DPA et engagement de confidentialité

Pour un panorama complet des outils disponibles et de leurs niveaux de conformité, consultez notre guide IA pour avocats en 2026.

La checklist complète en 15 points

Voici la checklist de conformité IA pour avocats qui synthétise les trois cadres réglementaires. Chaque point est classé par cadre (RGPD, AI Act ou CNB) et par niveau de priorité.

Point de contrôle Cadre Priorité
1 Un DPA conforme à l'article 28 du RGPD est signé avec chaque fournisseur d'IA RGPD Critique
2 Les données clients ne sont pas utilisées pour l'entraînement du modèle IA RGPD + CNB Critique
3 Les données sont hébergées dans l'Union européenne RGPD + CNB Critique
4 La base légale du traitement est identifiée et documentée RGPD Critique
5 Une AIPD a été réalisée avant la mise en production RGPD Élevée
6 Le registre des traitements est mis à jour avec les outils IA RGPD Élevée
7 Les données soumises à l'IA sont pseudonymisées avant envoi RGPD + CNB Élevée
8 Le chiffrement est conforme (AES-256 au repos, TLS 1.3 en transit) RGPD + CNB Élevée
9 La conformité AI Act du fournisseur est vérifiée (ou en cours) AI Act Élevée
10 Un registre interne des usages IA est tenu à jour AI Act + CNB Élevée
11 Chaque production IA est vérifiée par un avocat avant utilisation CNB Critique
12 Les collaborateurs sont formés aux risques et bonnes pratiques IA CNB + AI Act Élevée
13 Les clients sont informés de l'utilisation de l'IA dans leur dossier AI Act + CNB Moyenne
14 Un mécanisme de suppression des données est prévu contractuellement RGPD Élevée
15 Les logs du système IA sont conservés pour traçabilité AI Act Moyenne

Conseil pratique

Commencez par les 4 points critiques (1, 2, 3, 4, 11). Ce sont les risques les plus immédiats, tant sur le plan réglementaire que disciplinaire. Les points de priorité élevée constituent la deuxième vague de mise en conformité, idéalement avant août 2026.

Évaluer la conformité d'un outil IA avant de l'acheter

Avant de signer avec un éditeur de solution IA, un cabinet d'avocats doit poser les bonnes questions. Voici les 7 questions indispensables à adresser au fournisseur, et les réponses attendues.

Question au fournisseur Réponse attendue Drapeau rouge
Où sont hébergées les données ? UE (France idéalement) "AWS us-east" ou réponse floue
Les données sont-elles utilisées pour entraîner le modèle ? Non, avec clause contractuelle "Par défaut oui, mais vous pouvez opt-out"
Un DPA conforme RGPD est-il disponible ? Oui, fourni avant signature "Nos CGU couvrent ça" ou DPA générique
Quel niveau de chiffrement ? AES-256 au repos, TLS 1.3 en transit Pas de réponse précise
Le fournisseur prépare-t-il sa conformité AI Act ? Oui, avec calendrier et documentation "On verra quand ce sera applicable"
Les données sont-elles pseudonymisées avant traitement ? Oui, automatiquement ou sur option "C'est à vous de le faire"
Existe-t-il un mécanisme de suppression et d'audit ? Oui, suppression sur demande, audit possible Pas de procédure formalisée

Si un fournisseur ne peut pas répondre clairement à ces 7 questions, passez votre chemin. Les solutions spécialisées pour le droit français (Doctrine, Ordalie, Jimini) sont généralement mieux armées que les outils généralistes sur ces sujets. Pour un comparatif détaillé de ces solutions, consultez notre guide des outils IA pour avocats.

Si vous envisagez une solution IA sur mesure connectée à votre base documentaire interne, notre équipe accompagne les cabinets dans le déploiement de solutions IA sur mesure pour cabinets d'avocats, avec une conformité intégrée dès la conception.

Les pièges courants de la conformité IA en cabinet

Sur le terrain, nous constatons régulièrement les mêmes erreurs dans les cabinets qui commencent à utiliser l'IA. Certaines sont bénignes, d'autres exposent le cabinet à des risques disciplinaires et financiers sérieux.

Utiliser ChatGPT sans DPA ni encadrement

C'est le piège le plus répandu. Un collaborateur utilise ChatGPT pour reformuler des conclusions, analyser un contrat ou préparer une note. Les données partent sur les serveurs d'OpenAI aux États-Unis. Aucun DPA n'est signé. Les données peuvent être utilisées pour l'entraînement. Le secret professionnel est violé.

La solution : interdire l'usage de ChatGPT (et des outils similaires) avec des données clients. Autoriser uniquement les recherches génériques sans information nominative. Fournir aux équipes un outil conforme en alternative.

Confondre "serveurs en Europe" et conformité RGPD

Certains fournisseurs annoncent un hébergement européen, mais les données transitent par des API tierces hébergées aux États-Unis. Ou le sous-traitant technique est une entité américaine soumise au Cloud Act, même avec des serveurs en Irlande.

La solution : exiger une documentation technique complète de la chaîne de traitement. Vérifier que tous les sous-traitants sont identifiés dans le DPA et que la chaîne de traitement reste dans l'UE de bout en bout.

Omettre la pseudonymisation des données

Soumettre un contrat complet avec noms, adresses et montants à un outil IA est une pratique risquée, même avec un outil conforme. La pseudonymisation (remplacer les données identifiantes par des alias avant soumission) est une mesure de sécurité complémentaire recommandée par la CNIL.

La solution : mettre en place une procédure de pseudonymisation systématique, manuelle ou automatisée, avant toute soumission de documents clients à un outil IA.

Ne pas documenter ses usages IA

L'AI Act impose aux utilisateurs professionnels de documenter leurs usages. Beaucoup de cabinets utilisent l'IA sans aucune trace : pas de registre, pas de politique interne, pas de formation documentée. En cas de contrôle ou de litige, cette absence de documentation est un facteur aggravant.

La solution : créer un registre interne des outils IA, des cas d'usage autorisés et des personnes habilitées. Le mettre à jour à chaque ajout ou modification d'outil. Pour structurer cette démarche, notre service d'audit IA inclut un volet conformité spécifique aux professions réglementées.

Ignorer la formation des collaborateurs

Un outil conforme entre les mains d'un utilisateur non formé redevient un risque. Le collaborateur qui copie-colle un dossier complet dans un prompt, qui partage un accès sans autorisation, ou qui prend un résultat IA pour argent comptant compromet toute la démarche de conformité.

La solution : former chaque personne utilisant l'IA, avec des cas pratiques adaptés à la réalité du cabinet. Pour structurer un programme de formation, consultez notre guide sur le déploiement de l'IA en cabinet d'avocats.

Modèle de clause contractuelle pour encadrer l'IA en cabinet

Au-delà du DPA standard, un cabinet peut renforcer son cadre contractuel avec une clause spécifique d'utilisation de l'IA à intégrer dans le contrat de prestation avec son fournisseur. Voici un modèle de clause adaptable.

Clause type : encadrement de l'utilisation de l'IA

"Le Prestataire s'engage à ce que :

  1. 1. Aucune donnée transmise par le Client dans le cadre de l'utilisation du Service ne soit utilisée, directement ou indirectement, pour l'entraînement, le fine-tuning ou l'amélioration de modèles d'intelligence artificielle, qu'ils soient propriétaires ou tiers.
  2. 2. L'ensemble des données traitées par le Service soit hébergé et traité exclusivement sur des infrastructures situées dans l'Union européenne, sans transfert, même temporaire, vers des juridictions tierces.
  3. 3. Les données soient chiffrées selon les standards AES-256 au repos et TLS 1.3 en transit, avec ségrégation logique des données entre clients.
  4. 4. Un mécanisme de suppression définitive des données soit disponible sur demande du Client, avec confirmation écrite dans un délai de 30 jours.
  5. 5. Le Prestataire notifie le Client dans un délai de 72 heures en cas de violation de données au sens de l'article 33 du RGPD.
  6. 6. Le Prestataire communique au Client, sur demande, la liste à jour de ses sous-traitants techniques impliqués dans le traitement des données.
  7. 7. Le Prestataire s'engage à se conformer au Règlement (UE) 2024/1689 (AI Act) dans les délais applicables et à fournir au Client la documentation nécessaire à ses propres obligations de deployer."

Ce modèle est un point de départ. Faites-le relire par un confrère spécialisé en droit du numérique avant intégration. Et adaptez-le aux spécificités de chaque fournisseur et de chaque usage.

Pour un accompagnement dans la mise en place de ces clauses et le choix d'une solution IA conforme, notre équipe travaille avec plusieurs cabinets d'avocats sur ces sujets.

Mettre en place la conformité : par où commencer

La mise en conformité IA d'un cabinet peut sembler complexe. En pratique, elle se décompose en quatre étapes séquentielles :

Étape 1 : auditer l'existant

Listez tous les outils IA utilisés dans le cabinet, y compris les usages informels (un collaborateur qui utilise ChatGPT sur son téléphone personnel). Pour chaque outil, documentez : qui l'utilise, pour quoi, quelles données y transitent, où sont hébergées les données.

Étape 2 : évaluer les écarts

Confrontez chaque outil aux 15 points de la checklist. Identifiez les écarts critiques (pas de DPA, données hors UE, absence de pseudonymisation) et les écarts secondaires. Priorisez par niveau de risque.

Étape 3 : remédier

Pour chaque écart, trois options : corriger (signer le DPA manquant, activer la pseudonymisation), remplacer (changer d'outil pour un conforme) ou supprimer (interdire un usage non conformable). Négociez avec vos fournisseurs : la plupart des éditeurs spécialisés ont fait des efforts significatifs sur ces sujets.

Étape 4 : documenter et former

Rédigez une politique interne d'utilisation de l'IA. Formez les équipes. Mettez en place un processus de validation pour tout nouvel outil. Et planifiez une revue annuelle. Pour les cabinets qui souhaitent structurer cette démarche avec un accompagnement extérieur, notre page IA pour avocats détaille notre approche.

Pour les cabinets qui partent de zéro dans leur adoption de l'IA, notre article sur le chatbot juridique pour avocats montre comment démarrer avec un cas d'usage simple et conforme.

Questions fréquentes

Un cabinet qui utilise l'IA doit identifier la base légale du traitement, signer un DPA avec chaque fournisseur, réaliser une analyse d'impact (AIPD) si l'outil traite des données sensibles, vérifier la localisation des serveurs (UE obligatoire pour les données clients), et mettre à jour son registre des traitements. Les amendes RGPD peuvent atteindre 4 % du chiffre d'affaires annuel.
En l'état, l'utilisation de ChatGPT avec des données clients est incompatible avec le secret professionnel. Les données transitent par des serveurs américains soumis au Cloud Act, OpenAI ne propose pas de DPA conforme aux exigences d'un cabinet, et les données peuvent être utilisées pour l'entraînement du modèle. Un avocat peut utiliser ChatGPT pour des recherches générales sans données nominatives, mais jamais pour traiter des informations couvertes par le secret professionnel.
L'AI Act entre en application progressive. Les obligations concernant les systèmes d'IA à haut risque, dont certains outils juridiques, s'appliquent à partir d'août 2026. En tant qu'utilisateur professionnel (deployer), l'avocat doit vérifier la conformité de son fournisseur, documenter son usage de l'IA, et informer les personnes concernées lorsque l'IA intervient dans un processus décisionnel.
Le CNB a publié un guide pratique sur l'utilisation de l'IA par les avocats et travaille à l'actualisation du Règlement Intérieur National (RIN) pour intégrer les enjeux liés à l'IA. Les principes clés : le secret professionnel reste une obligation absolue y compris face aux outils numériques, l'avocat conserve la responsabilité pleine et entière de tout travail produit avec l'aide de l'IA, et aucune délégation de jugement juridique à un outil automatisé n'est admise.
Oui, dans la plupart des cas. La CNIL impose une AIPD lorsque le traitement porte sur des données sensibles ou à grande échelle. Les données traitées par un cabinet d'avocats (données judiciaires, informations sous secret professionnel, données de santé dans certains contentieux) entrent généralement dans cette catégorie. L'AIPD doit décrire les traitements, évaluer la nécessité et la proportionnalité, et identifier les mesures de sécurité.
Posez sept questions clés au fournisseur : où sont hébergées les données (exiger UE), les données sont-elles utilisées pour entraîner le modèle (exiger que non), un DPA conforme RGPD est-il disponible, quel est le niveau de chiffrement (exiger AES-256 au repos et TLS 1.3 en transit), le fournisseur prépare-t-il sa conformité AI Act, les données sont-elles pseudonymisées avant traitement, et existe-t-il un mécanisme d'audit et de suppression des données.

Conclusion

La conformité IA pour un cabinet d'avocats n'est pas un luxe réglementaire : c'est une condition d'exercice. Trois cadres se superposent (RGPD, AI Act, déontologie CNB), mais ils convergent vers les mêmes principes : protéger les données, garder le contrôle humain, documenter ses usages.

Les 15 points de cette checklist ne demandent pas des mois de travail. Les points critiques (DPA, hébergement UE, non-entraînement sur les données, vérification humaine) peuvent être traités en quelques semaines. Les points de priorité élevée constituent le chantier d'ici août 2026.

L'erreur serait de ne rien faire. Un cabinet qui utilise l'IA sans cadre s'expose à des sanctions RGPD (jusqu'à 4 % du CA), à des poursuites disciplinaires, et surtout à une perte de confiance de ses clients. Un cabinet qui adopte l'IA de manière conforme gagne en efficacité et en crédibilité.

Cabinets d'avocats

Adoptez l'IA en toute conformité. Audit gratuit de vos outils.

Réserver un Audit Gratuit

Pour aller plus loin

Anas Rabhi, data scientist spécialisé en IA générative
Anas Rabhi Data Scientist & Fondateur de Tensoria

Je suis data scientist spécialisé en IA générative. J'aide les entreprises à économiser du temps grâce à des solutions d'IA sur mesure, adaptées à leur métier. Automatisation de tâches répétitives, assistants internes, traitement intelligent de documents : je conçois des outils qui s'intègrent dans vos processus existants et produisent des résultats concrets.