Vous êtes avocat et vous utilisez, ou envisagez d'utiliser, un outil d'intelligence artificielle dans votre cabinet. Recherche jurisprudentielle, revue de contrats, rédaction assistée : les cas d'usage sont concrets et les gains de temps documentés. Mais avez-vous vérifié que votre usage est conforme ?
Le problème : trois cadres réglementaires distincts encadrent l'utilisation de l'IA par un avocat en France. Le RGPD, avec des amendes pouvant atteindre 4 % du chiffre d'affaires. L'AI Act européen, dont les obligations sur les systèmes à haut risque entrent en vigueur en août 2026. Et la déontologie CNB, qui impose des exigences spécifiques liées au secret professionnel et au Règlement Intérieur National (RIN).
Aucune ressource en ligne ne combine ces trois cadres en une seule checklist actionnable. C'est ce que fait cet article : 15 points de contrôle concrets, un modèle de clause contractuelle, et les pièges à éviter. Une ressource à garder sous le coude avant de signer avec un éditeur ou de déployer un nouvel outil.
En bref
Cet article couvre les 15 points de conformité qu'un cabinet d'avocats doit vérifier avant d'utiliser un outil IA. Les trois cadres : RGPD (DPA, base légale, AIPD, transferts), AI Act (obligations utilisateur professionnel, août 2026), déontologie CNB (secret professionnel, responsabilité, RIN). Plus : un tableau récapitulatif, 7 questions à poser à tout fournisseur, les erreurs les plus courantes, et un modèle de clause contractuelle.
Obligations RGPD pour un cabinet utilisant l'IA
Le RGPD est le premier cadre à maîtriser. Un cabinet d'avocats est responsable de traitement au sens du règlement européen. Lorsqu'il utilise un outil d'IA qui traite des données personnelles (noms de clients, pièces de procédure, données contractuelles), il doit respecter des obligations précises. La CNIL a d'ailleurs publié plusieurs recommandations spécifiques sur l'IA et la protection des données.
Quelle base légale pour le traitement IA en cabinet ?
Tout traitement de données personnelles nécessite une base légale. Pour un cabinet d'avocats utilisant l'IA, deux bases sont envisageables :
- L'intérêt légitime (article 6.1.f du RGPD) : applicable lorsque l'IA est utilisée pour optimiser des tâches internes (recherche, analyse de contrats). Il faut documenter la mise en balance entre l'intérêt du cabinet et les droits des personnes concernées.
- L'exécution du contrat (article 6.1.b) : applicable lorsque le traitement IA est directement lié à la mission confiée par le client (analyse de son dossier, recherche dans ses documents).
Le consentement est rarement la base appropriée dans une relation avocat-client, car il doit être libre et révocable, ce qui est difficilement compatible avec un mandat en cours.
Le DPA est-il obligatoire avec un fournisseur d'IA ?
Oui, systématiquement. Le Data Processing Agreement (accord de sous-traitance au sens de l'article 28 du RGPD) est obligatoire dès lors que le fournisseur d'IA traite des données personnelles pour le compte du cabinet. Ce DPA doit préciser :
- L'objet et la durée du traitement
- La nature et la finalité du traitement
- Les catégories de données traitées
- Les mesures de sécurité techniques et organisationnelles
- Les obligations en cas de violation de données
- Les conditions de sous-traitance ultérieure
- L'interdiction d'utiliser les données pour entraîner le modèle
Ce dernier point est critique. Si votre fournisseur utilise les requêtes et documents de votre cabinet pour améliorer son modèle, c'est une violation du RGPD et du secret professionnel.
Que faire pour les transferts de données hors UE ?
La localisation des serveurs est un point de vigilance majeur pour la conformité IA des avocats. Si l'outil IA traite les données sur des serveurs situés hors de l'Union européenne, des garanties supplémentaires sont nécessaires :
- Clauses contractuelles types (CCT) de la Commission européenne
- Data Privacy Framework UE-US (pour les fournisseurs américains certifiés, mais sa pérennité juridique reste incertaine)
- Évaluation de la législation du pays tiers (Cloud Act américain, par exemple)
En pratique, pour un cabinet d'avocats traitant des données couvertes par le secret professionnel, la recommandation est claire : exiger un hébergement dans l'UE. C'est la seule option qui ne nécessite pas d'analyse juridique complexe sur les transferts. Pour approfondir les enjeux de sécurité des données dans un contexte professionnel, consultez notre article sur la sécurité des données IA en entreprise.
L'analyse d'impact (AIPD) est-elle obligatoire ?
Dans la majorité des cas d'usage IA en cabinet, oui. La CNIL impose une AIPD lorsque le traitement est susceptible d'engendrer un risque élevé pour les personnes. Les données traitées par un cabinet (données judiciaires, informations sous secret professionnel, parfois données de santé) entrent quasi systématiquement dans cette catégorie.
L'AIPD doit être réalisée avant la mise en production de l'outil et documentée dans le registre des traitements.
AI Act : ce qui s'applique à un avocat utilisateur
Le règlement européen sur l'intelligence artificielle (AI Act) est entré en vigueur le 1er août 2024, avec une application progressive. Les obligations concernant les systèmes d'IA à haut risque s'appliquent à partir d'août 2026. Et certains outils utilisés par les avocats pourraient entrer dans cette catégorie.
Votre outil IA est-il classé "haut risque" ?
L'AI Act classe comme à haut risque les systèmes d'IA utilisés dans l'administration de la justice et les processus démocratiques (Annexe III, point 8). Concrètement, un outil d'IA utilisé pour :
- Aider à la recherche et à l'interprétation de faits et de la loi
- Appliquer la loi à un ensemble concret de faits
peut être qualifié de système à haut risque. En revanche, un outil de gestion administrative (facturation, agenda) ou de simple recherche documentaire sans composante décisionnelle n'entre pas dans cette catégorie.
L'enjeu pour un avocat : la qualification dépend de l'usage, pas uniquement de l'outil. Un même logiciel peut être à haut risque pour un usage et ne pas l'être pour un autre. Pour un panorama complet de l'AI Act adapté aux entreprises, notre guide AI Act 2026 pour PME détaille les obligations par catégorie.
Quelles obligations pour l'avocat en tant qu'utilisateur (deployer) ?
L'AI Act distingue le fournisseur (provider) de l'utilisateur professionnel (deployer). En tant que deployer d'un système à haut risque, l'avocat doit :
- Utiliser le système conformément aux instructions du fournisseur
- S'assurer que les données d'entrée sont pertinentes au regard de la finalité du système
- Surveiller le fonctionnement du système et signaler tout dysfonctionnement
- Informer les personnes physiques qu'elles font l'objet d'une décision assistée par IA (article 26)
- Réaliser une analyse d'impact sur les droits fondamentaux avant mise en service
- Conserver les logs générés automatiquement par le système pendant une durée appropriée
Quel calendrier pour se mettre en conformité AI Act ?
L'application est progressive :
- Février 2025 : interdiction des pratiques d'IA prohibées (déjà en vigueur)
- Août 2025 : obligations relatives aux modèles d'IA à usage général
- Août 2026 : obligations pour les systèmes à haut risque
Un cabinet qui utilise déjà des outils IA a donc jusqu'à août 2026 pour vérifier la conformité de ses outils et documenter ses usages. Ce n'est pas un délai confortable : c'est le minimum pour auditer, négocier avec les fournisseurs et mettre en place les processus internes.
Déontologie CNB : secret professionnel, RIN et avis sur l'IA
Au-delà du RGPD et de l'AI Act, l'avocat est soumis à des obligations déontologiques spécifiques qui encadrent strictement l'utilisation de l'IA. Le Conseil National des Barreaux a pris position sur le sujet.
Le secret professionnel face aux outils IA
Le secret professionnel de l'avocat est une obligation absolue, d'ordre public, qui couvre l'ensemble des informations confiées par le client ou recueillies dans le cadre de la mission. Le Règlement Intérieur National (RIN) le rappelle sans ambiguïté.
Concrètement, cela signifie qu'un avocat ne peut pas :
- Soumettre des documents clients à un outil IA dont les données transitent par des serveurs non sécurisés
- Utiliser un outil qui intègre les données soumises dans son modèle d'entraînement
- Partager des informations couvertes par le secret avec un tiers (y compris un sous-traitant technologique) sans garanties de confidentialité contractualisées
- Stocker des données clients sur des infrastructures soumises à des législations extraterritoriales incompatibles avec le secret
La responsabilité de l'avocat reste entière
Point fondamental : l'utilisation de l'IA ne transfère aucune responsabilité. L'avocat qui signe une consultation, des conclusions ou un acte reste pleinement responsable de son contenu, qu'il l'ait rédigé seul ou avec l'aide d'une IA.
Le CNB insiste sur ce principe : aucune délégation du jugement juridique à un outil automatisé n'est admise. L'IA est un outil d'aide à la décision, jamais un décideur. L'avocat doit vérifier, valider et assumer chaque production.
Le principe déontologique clé
L'IA assiste, l'avocat décide. Cette règle n'est pas une recommandation : c'est une obligation déontologique. Un avocat qui s'appuie aveuglément sur un résultat IA sans vérification engage sa responsabilité professionnelle et s'expose à des poursuites disciplinaires.
L'avis du CNB sur l'IA et ses recommandations
Le CNB a formulé plusieurs recommandations à destination des avocats :
- Former les équipes : chaque collaborateur utilisant l'IA doit comprendre ses limites et les risques associés
- Documenter les usages : tenir un registre interne des outils IA utilisés, de leur finalité et des données traitées
- Informer les clients : la transparence sur l'utilisation de l'IA dans le traitement du dossier est recommandée
- Vérifier systématiquement : tout résultat produit par l'IA doit être contrôlé par un avocat avant utilisation
- Choisir des outils conformes : privilégier les solutions hébergées dans l'UE, avec DPA et engagement de confidentialité
Pour un panorama complet des outils disponibles et de leurs niveaux de conformité, consultez notre guide IA pour avocats en 2026.
La checklist complète en 15 points
Voici la checklist de conformité IA pour avocats qui synthétise les trois cadres réglementaires. Chaque point est classé par cadre (RGPD, AI Act ou CNB) et par niveau de priorité.
| N° | Point de contrôle | Cadre | Priorité |
|---|---|---|---|
| 1 | Un DPA conforme à l'article 28 du RGPD est signé avec chaque fournisseur d'IA | RGPD | Critique |
| 2 | Les données clients ne sont pas utilisées pour l'entraînement du modèle IA | RGPD + CNB | Critique |
| 3 | Les données sont hébergées dans l'Union européenne | RGPD + CNB | Critique |
| 4 | La base légale du traitement est identifiée et documentée | RGPD | Critique |
| 5 | Une AIPD a été réalisée avant la mise en production | RGPD | Élevée |
| 6 | Le registre des traitements est mis à jour avec les outils IA | RGPD | Élevée |
| 7 | Les données soumises à l'IA sont pseudonymisées avant envoi | RGPD + CNB | Élevée |
| 8 | Le chiffrement est conforme (AES-256 au repos, TLS 1.3 en transit) | RGPD + CNB | Élevée |
| 9 | La conformité AI Act du fournisseur est vérifiée (ou en cours) | AI Act | Élevée |
| 10 | Un registre interne des usages IA est tenu à jour | AI Act + CNB | Élevée |
| 11 | Chaque production IA est vérifiée par un avocat avant utilisation | CNB | Critique |
| 12 | Les collaborateurs sont formés aux risques et bonnes pratiques IA | CNB + AI Act | Élevée |
| 13 | Les clients sont informés de l'utilisation de l'IA dans leur dossier | AI Act + CNB | Moyenne |
| 14 | Un mécanisme de suppression des données est prévu contractuellement | RGPD | Élevée |
| 15 | Les logs du système IA sont conservés pour traçabilité | AI Act | Moyenne |
Conseil pratique
Commencez par les 4 points critiques (1, 2, 3, 4, 11). Ce sont les risques les plus immédiats, tant sur le plan réglementaire que disciplinaire. Les points de priorité élevée constituent la deuxième vague de mise en conformité, idéalement avant août 2026.
Évaluer la conformité d'un outil IA avant de l'acheter
Avant de signer avec un éditeur de solution IA, un cabinet d'avocats doit poser les bonnes questions. Voici les 7 questions indispensables à adresser au fournisseur, et les réponses attendues.
| Question au fournisseur | Réponse attendue | Drapeau rouge |
|---|---|---|
| Où sont hébergées les données ? | UE (France idéalement) | "AWS us-east" ou réponse floue |
| Les données sont-elles utilisées pour entraîner le modèle ? | Non, avec clause contractuelle | "Par défaut oui, mais vous pouvez opt-out" |
| Un DPA conforme RGPD est-il disponible ? | Oui, fourni avant signature | "Nos CGU couvrent ça" ou DPA générique |
| Quel niveau de chiffrement ? | AES-256 au repos, TLS 1.3 en transit | Pas de réponse précise |
| Le fournisseur prépare-t-il sa conformité AI Act ? | Oui, avec calendrier et documentation | "On verra quand ce sera applicable" |
| Les données sont-elles pseudonymisées avant traitement ? | Oui, automatiquement ou sur option | "C'est à vous de le faire" |
| Existe-t-il un mécanisme de suppression et d'audit ? | Oui, suppression sur demande, audit possible | Pas de procédure formalisée |
Si un fournisseur ne peut pas répondre clairement à ces 7 questions, passez votre chemin. Les solutions spécialisées pour le droit français (Doctrine, Ordalie, Jimini) sont généralement mieux armées que les outils généralistes sur ces sujets. Pour un comparatif détaillé de ces solutions, consultez notre guide des outils IA pour avocats.
Si vous envisagez une solution IA sur mesure connectée à votre base documentaire interne, notre équipe accompagne les cabinets dans le déploiement de solutions IA sur mesure pour cabinets d'avocats, avec une conformité intégrée dès la conception.
Les pièges courants de la conformité IA en cabinet
Sur le terrain, nous constatons régulièrement les mêmes erreurs dans les cabinets qui commencent à utiliser l'IA. Certaines sont bénignes, d'autres exposent le cabinet à des risques disciplinaires et financiers sérieux.
Utiliser ChatGPT sans DPA ni encadrement
C'est le piège le plus répandu. Un collaborateur utilise ChatGPT pour reformuler des conclusions, analyser un contrat ou préparer une note. Les données partent sur les serveurs d'OpenAI aux États-Unis. Aucun DPA n'est signé. Les données peuvent être utilisées pour l'entraînement. Le secret professionnel est violé.
La solution : interdire l'usage de ChatGPT (et des outils similaires) avec des données clients. Autoriser uniquement les recherches génériques sans information nominative. Fournir aux équipes un outil conforme en alternative.
Confondre "serveurs en Europe" et conformité RGPD
Certains fournisseurs annoncent un hébergement européen, mais les données transitent par des API tierces hébergées aux États-Unis. Ou le sous-traitant technique est une entité américaine soumise au Cloud Act, même avec des serveurs en Irlande.
La solution : exiger une documentation technique complète de la chaîne de traitement. Vérifier que tous les sous-traitants sont identifiés dans le DPA et que la chaîne de traitement reste dans l'UE de bout en bout.
Omettre la pseudonymisation des données
Soumettre un contrat complet avec noms, adresses et montants à un outil IA est une pratique risquée, même avec un outil conforme. La pseudonymisation (remplacer les données identifiantes par des alias avant soumission) est une mesure de sécurité complémentaire recommandée par la CNIL.
La solution : mettre en place une procédure de pseudonymisation systématique, manuelle ou automatisée, avant toute soumission de documents clients à un outil IA.
Ne pas documenter ses usages IA
L'AI Act impose aux utilisateurs professionnels de documenter leurs usages. Beaucoup de cabinets utilisent l'IA sans aucune trace : pas de registre, pas de politique interne, pas de formation documentée. En cas de contrôle ou de litige, cette absence de documentation est un facteur aggravant.
La solution : créer un registre interne des outils IA, des cas d'usage autorisés et des personnes habilitées. Le mettre à jour à chaque ajout ou modification d'outil. Pour structurer cette démarche, notre service d'audit IA inclut un volet conformité spécifique aux professions réglementées.
Ignorer la formation des collaborateurs
Un outil conforme entre les mains d'un utilisateur non formé redevient un risque. Le collaborateur qui copie-colle un dossier complet dans un prompt, qui partage un accès sans autorisation, ou qui prend un résultat IA pour argent comptant compromet toute la démarche de conformité.
La solution : former chaque personne utilisant l'IA, avec des cas pratiques adaptés à la réalité du cabinet. Pour structurer un programme de formation, consultez notre guide sur le déploiement de l'IA en cabinet d'avocats.
Modèle de clause contractuelle pour encadrer l'IA en cabinet
Au-delà du DPA standard, un cabinet peut renforcer son cadre contractuel avec une clause spécifique d'utilisation de l'IA à intégrer dans le contrat de prestation avec son fournisseur. Voici un modèle de clause adaptable.
Clause type : encadrement de l'utilisation de l'IA
"Le Prestataire s'engage à ce que :
- 1. Aucune donnée transmise par le Client dans le cadre de l'utilisation du Service ne soit utilisée, directement ou indirectement, pour l'entraînement, le fine-tuning ou l'amélioration de modèles d'intelligence artificielle, qu'ils soient propriétaires ou tiers.
- 2. L'ensemble des données traitées par le Service soit hébergé et traité exclusivement sur des infrastructures situées dans l'Union européenne, sans transfert, même temporaire, vers des juridictions tierces.
- 3. Les données soient chiffrées selon les standards AES-256 au repos et TLS 1.3 en transit, avec ségrégation logique des données entre clients.
- 4. Un mécanisme de suppression définitive des données soit disponible sur demande du Client, avec confirmation écrite dans un délai de 30 jours.
- 5. Le Prestataire notifie le Client dans un délai de 72 heures en cas de violation de données au sens de l'article 33 du RGPD.
- 6. Le Prestataire communique au Client, sur demande, la liste à jour de ses sous-traitants techniques impliqués dans le traitement des données.
- 7. Le Prestataire s'engage à se conformer au Règlement (UE) 2024/1689 (AI Act) dans les délais applicables et à fournir au Client la documentation nécessaire à ses propres obligations de deployer."
Ce modèle est un point de départ. Faites-le relire par un confrère spécialisé en droit du numérique avant intégration. Et adaptez-le aux spécificités de chaque fournisseur et de chaque usage.
Pour un accompagnement dans la mise en place de ces clauses et le choix d'une solution IA conforme, notre équipe travaille avec plusieurs cabinets d'avocats sur ces sujets.
Mettre en place la conformité : par où commencer
La mise en conformité IA d'un cabinet peut sembler complexe. En pratique, elle se décompose en quatre étapes séquentielles :
Étape 1 : auditer l'existant
Listez tous les outils IA utilisés dans le cabinet, y compris les usages informels (un collaborateur qui utilise ChatGPT sur son téléphone personnel). Pour chaque outil, documentez : qui l'utilise, pour quoi, quelles données y transitent, où sont hébergées les données.
Étape 2 : évaluer les écarts
Confrontez chaque outil aux 15 points de la checklist. Identifiez les écarts critiques (pas de DPA, données hors UE, absence de pseudonymisation) et les écarts secondaires. Priorisez par niveau de risque.
Étape 3 : remédier
Pour chaque écart, trois options : corriger (signer le DPA manquant, activer la pseudonymisation), remplacer (changer d'outil pour un conforme) ou supprimer (interdire un usage non conformable). Négociez avec vos fournisseurs : la plupart des éditeurs spécialisés ont fait des efforts significatifs sur ces sujets.
Étape 4 : documenter et former
Rédigez une politique interne d'utilisation de l'IA. Formez les équipes. Mettez en place un processus de validation pour tout nouvel outil. Et planifiez une revue annuelle. Pour les cabinets qui souhaitent structurer cette démarche avec un accompagnement extérieur, notre page IA pour avocats détaille notre approche.
Pour les cabinets qui partent de zéro dans leur adoption de l'IA, notre article sur le chatbot juridique pour avocats montre comment démarrer avec un cas d'usage simple et conforme.
Questions fréquentes
Conclusion
La conformité IA pour un cabinet d'avocats n'est pas un luxe réglementaire : c'est une condition d'exercice. Trois cadres se superposent (RGPD, AI Act, déontologie CNB), mais ils convergent vers les mêmes principes : protéger les données, garder le contrôle humain, documenter ses usages.
Les 15 points de cette checklist ne demandent pas des mois de travail. Les points critiques (DPA, hébergement UE, non-entraînement sur les données, vérification humaine) peuvent être traités en quelques semaines. Les points de priorité élevée constituent le chantier d'ici août 2026.
L'erreur serait de ne rien faire. Un cabinet qui utilise l'IA sans cadre s'expose à des sanctions RGPD (jusqu'à 4 % du CA), à des poursuites disciplinaires, et surtout à une perte de confiance de ses clients. Un cabinet qui adopte l'IA de manière conforme gagne en efficacité et en crédibilité.
Cabinets d'avocats
Adoptez l'IA en toute conformité. Audit gratuit de vos outils.
Pour aller plus loin
- IA pour Avocats en 2026 : Choisir les Bons Outils Sans Compromettre le Secret Professionnel : comparatif terrain des solutions Doctrine, Ordalie, Jimini et alternatives.
- Déployer l'IA dans un Cabinet d'Avocats : méthodologie pas à pas, de l'audit au déploiement, avec formation des équipes.
- Solution IA sur Mesure pour Cabinets d'Avocats : quand et pourquoi opter pour un assistant RAG connecté à votre base documentaire interne.
- AI Act 2026 : Guide de Conformité pour PME : toutes les obligations du règlement européen, décryptées pour les dirigeants.
- Rapports de Conformité Réglementaire et IA : automatiser la veille et le reporting réglementaire avec l'IA.
- Notre Expertise IA pour Cabinets d'Avocats : découvrez comment Tensoria accompagne les professions juridiques.