La question revient dans presque tous nos premiers échanges avec des dirigeants de PME : est-ce qu'on peut utiliser l'IA sans mettre en danger nos données ? C'est une bonne question. Et contrairement à ce qu'on entend souvent, la réponse n'est pas "non, c'est trop risqué" ni "oui, ne vous inquiétez pas".
La réalité, c'est que le risque est réel mais maîtrisable. Il se concentre sur quatre points précis. Et il existe des mesures concrètes, proportionnées à la taille d'une PME, pour les adresser sans bloquer l'adoption de l'IA.
Ce guide ne vise pas à vous faire peur. Il vise à vous donner un état des lieux honnête et des outils actionnables : cartographie des données sensibles, grille de choix d'hébergement, checklist contractuelle avec vos prestataires IA, et cadrage du shadow IA dans vos équipes. Le tout en tenant compte des obligations RGPD et AI Act en vigueur en 2026.
Chez Tensoria, agence IA à Toulouse, nous accompagnons des PME et ETI qui ont précisément ces contraintes. Ce que vous allez lire vient du terrain, pas d'un document de conformité théorique. Si vous partez de zéro sur le sujet IA, notre guide pour lancer un projet IA de manière réaliste est un bon point d'entrée.
En résumé (TL;DR)
- ✓ Les 4 risques réels : fuite via le prompt, fuite via le training, Cloud Act, shadow IA des équipes
- ✓ Cartographiez vos données sensibles avant de choisir un outil : RH, financier, clients, PI, juridique
- ✓ Grille d'hébergement : SaaS US (à éviter pour données sensibles), SaaS UE (acceptable), souverain France (recommandé), on-premise (maximum)
- ✓ Checklist contractuelle : zéro training sur vos données, suppression à la fin du contrat, logs d'accès, droit d'audit
- ✓ Shadow IA : la politique d'interdiction sans alternative ne fonctionne pas
- ✓ AI Act 2026 : l'obligation de literacy IA est déjà en vigueur, la transparence arrive en août 2026
Les 4 risques réels de l'IA pour vos données
Avant de parler de solutions, il faut nommer précisément les risques. Beaucoup de dirigeants ont une peur diffuse de "l'IA qui vole leurs données". Ce n'est pas ça. Les risques sont bien délimités, et chacun appelle une réponse différente.
Risque 1 : la fuite via le prompt
C'est le risque le plus immédiat et le plus souvent sous-estimé. Quand un collaborateur utilise ChatGPT, Claude ou Copilot pour rédiger un email, résumer un document ou analyser un tableau Excel, il envoie ce contenu sur les serveurs du fournisseur. Si ce contenu contient des données clients, des informations contractuelles, des données RH ou de la propriété intellectuelle, ces informations ont quitté votre périmètre.
Ce n'est pas hypothétique. Selon une étude Kiteworks publiée en 2025, 26 % des organisations déclarent que plus de 30 % des données saisies par leurs collaborateurs dans des outils IA publics sont privées ou sensibles. Chez vos équipes, la proportion est probablement similaire.
Exemple concret : un commercial copie-colle une proposition commerciale dans ChatGPT pour "l'améliorer". Cette proposition contient les tarifs négociés, les coordonnées du prospect et les conditions spéciales accordées. Ces informations se retrouvent sur les serveurs d'OpenAI, aux États-Unis.
Risque 2 : la fuite via le training
Certains fournisseurs utilisent les conversations de leurs utilisateurs pour affiner leurs modèles. C'est le cas de la version gratuite de ChatGPT par défaut. Le risque : vos données sensibles deviennent des données d'entraînement et peuvent, en théorie, être restituées à un autre utilisateur si le modèle "mémorise" ces informations.
Ce risque est plus théorique qu'immédiat pour les offres professionnelles (ChatGPT Team, Enterprise, API OpenAI avec option désactivée). Mais il est réel pour les usages non cadrés. La règle de base : vérifier systématiquement la politique de training du fournisseur avant tout usage avec des données sensibles.
Risque 3 : la dépendance à un acteur extra-UE (Cloud Act)
Le Cloud Act américain de 2018 autorise les autorités américaines à exiger l'accès aux données stockées par des entreprises de droit américain, même si ces serveurs sont physiquement en Europe. Concrètement : si vous utilisez AWS, Azure, Google Cloud, OpenAI ou Microsoft 365, vos données sont potentiellement accessibles à des autorités américaines.
Ce n'est pas qu'un problème de conformité RGPD. C'est aussi un risque de compétitivité : vos données commerciales, vos contrats, votre propriété intellectuelle peuvent théoriquement être consultés par des acteurs tiers. Pour une PME qui travaille sur des marchés sensibles ou avec des clients dans la défense, la santé ou le secteur public, c'est un enjeu stratégique réel.
Nuance importante : le risque Cloud Act est réel mais souvent mal calibré. Dans la pratique, les PME ne sont pas des cibles prioritaires des agences de renseignement. Mais la dépendance à un acteur extra-UE crée une vulnérabilité structurelle que la CNIL prend en compte dans ses recommandations sur l'IA.
Risque 4 : le shadow IA de vos collaborateurs
C'est souvent le risque le plus difficile à gérer, parce qu'il vient de l'intérieur. Le shadow IA, c'est l'usage d'outils IA par les collaborateurs sans validation de la direction : ChatGPT personnel, extensions de navigateur avec IA, outils de traduction automatique, assistants de code.
Selon l'étude Kiteworks 2025, 91 % des petites entreprises n'ont aucun système de surveillance de leurs systèmes IA. Ce n'est pas une accusation envers les collaborateurs : ils utilisent ces outils parce qu'ils sont efficaces et que personne ne leur a fourni d'alternative validée. La réponse n'est pas la surveillance, c'est le cadrage.
Cartographier vos données sensibles avant de déployer l'IA
Avant de choisir un hébergement ou de rédiger une politique IA, vous devez savoir ce que vous protégez. Toutes les données de votre entreprise n'ont pas le même niveau de sensibilité. Voici la cartographie que nous utilisons chez Tensoria lors de nos missions d'audit IA.
| Catégorie | Exemples concrets | Niveau de sensibilité | Obligation RGPD |
|---|---|---|---|
| Données RH | Salaires, évaluations, arrêts maladie, dossiers disciplinaires, candidatures | Critique | RGPD art. 9 (données sensibles), AIPD souvent obligatoire |
| Données financières | Comptabilité, marges, prévisions, contrats fournisseurs, conditions tarifaires | Élevé | Secret des affaires, données personnelles si nommées |
| Données clients | Coordonnées, historique d'achats, données de contact, préférences | Élevé | RGPD obligatoire, base légale requise, registre des traitements |
| Propriété intellectuelle | Brevets, codes sources, formulations produit, savoir-faire métier, R&D | Élevé | Secret des affaires, risque concurrentiel |
| Données juridiques | Contrats en cours, litiges, correspondances avec avocats, accords de NDA | Élevé | Secret professionnel possible, confidentialité contractuelle |
| Données opérationnelles | Processus internes, plannings, données logistiques non nominatives | Modéré | RGPD si nominatif, sinon secret des affaires |
La règle d'or : une donnée appartenant aux 5 premières catégories ne doit jamais être envoyée à un LLM externe sans anonymisation préalable ou sans vérification contractuelle que le fournisseur ne l'utilisera pas pour son training.
Pour chaque catégorie, posez-vous la question : dans quels outils IA ces données pourraient-elles se retrouver demain ? La réponse vous indique où concentrer votre effort de sécurisation. Consultez notre guide sur le diagnostic IA interne pour structurer cet inventaire.
Choisir le bon hébergement IA selon vos données
Il n'y a pas une seule bonne réponse sur l'hébergement. Il y a un continuum de niveaux de protection, à mettre en regard du niveau de sensibilité de vos données et de vos contraintes opérationnelles.
| Option | Exemples | Protection Cloud Act | Usage recommandé |
|---|---|---|---|
| SaaS US standard | ChatGPT gratuit/Plus, OpenAI API sans DPA, Gemini standard | Nulle | Données publiques uniquement, aucune donnée interne |
| SaaS UE (droit américain) | Azure OpenAI EU, AWS Bedrock EU, ChatGPT Enterprise | Partielle | Données clients et opérationnelles avec DPA signé |
| SaaS souverain Europe | Mistral AI (français), OVHcloud AI, Aleph Alpha (allemand) | Bonne | Données sensibles, PME avec contraintes RGPD fortes |
| Souverain France | Scaleway (Iliad), OVHcloud, Outscale (Dassault), 3DS Outscale | Très bonne | Données RH, juridiques, secteurs régulés |
| On-premise / air gap | Ollama + Mistral, LLaMA sur infra interne, solution RAG privée | Maximale | Données critiques, secret défense, PI stratégique |
Azure OpenAI EU et AWS Bedrock EU : le compromis acceptable
Pour la majorité des PME qui veulent accéder aux modèles les plus puissants (GPT-4o, Claude 3) avec des garanties correctes, Azure OpenAI Service avec région EU ou AWS Bedrock avec région Europe représentent un compromis raisonnable. Ces options garantissent que vos données restent hébergées dans des datacenters européens et ne sont pas utilisées pour le training.
Points de vigilance :
- Signer le DPA (Data Processing Agreement) avec Microsoft ou AWS est obligatoire pour que la conformité RGPD soit effective
- Microsoft et AWS restent des sociétés de droit américain soumises au Cloud Act, même si les serveurs sont en Europe
- Le niveau de protection réel dépend aussi des clauses contractuelles types (SCC) en vigueur
Scaleway, OVHcloud, Outscale : la souveraineté française
Scaleway (groupe Iliad/Free), OVHcloud et Outscale (filiale Dassault Systèmes) sont les trois principaux acteurs de l'hébergement souverain français. Ils proposent des services cloud dont les datacenters sont sur le territoire français, avec des entités juridiques de droit européen.
- Scaleway : certifié ISO 27001, en cours de qualification SecNumCloud ANSSI, API Mistral disponible, bonne offre GPU pour le déploiement de modèles
- OVHcloud : certifié ISO 27001, HDS (Hébergeur de Données de Santé), très large catalogue, présence à Toulouse avec datacenter à Bordeaux
- Outscale : qualifié SecNumCloud (le niveau le plus élevé de l'ANSSI), recommandé pour les secteurs très sensibles (défense, santé, administration)
On-premise : quand aucune donnée ne doit sortir
Pour les données les plus critiques (propriété intellectuelle stratégique, données de santé, données de défense), la seule option réellement sûre est le déploiement local d'un LLM sur votre propre infrastructure. Des modèles comme Mistral 7B ou 22B via Ollama, ou une architecture RAG souveraine sur Mistral, permettent d'obtenir des performances métier correctes sans aucun transfert de données vers l'extérieur.
Le compromis : les performances restent inférieures à GPT-4o ou Claude 3.7 pour les tâches complexes. Pour la classification, l'extraction de données, le résumé et la génération de contenu structuré, un Mistral local suffit dans 70 à 80 % des cas d'usage PME.
RGPD et IA : DPA, base légale et AIPD
Le RGPD ne parle pas spécifiquement de l'IA, mais ses principes s'appliquent à chaque fois que vous traitez des données personnelles via un outil IA. Voici les trois obligations RGPD les plus souvent négligées en PME lors du déploiement d'un outil IA.
Le DPA avec chaque sous-traitant IA
Toute entreprise qui traite des données personnelles pour votre compte est un sous-traitant au sens du RGPD (article 28). Cela inclut votre fournisseur d'outil IA. Avant tout usage d'un LLM avec des données personnelles, vous devez :
- Vérifier que le fournisseur propose un DPA (Data Processing Agreement)
- Signer ce DPA formellement (pas seulement cocher une case dans un formulaire)
- Ajouter ce sous-traitant à votre registre des sous-traitants RGPD
- Vérifier que ce sous-traitant peut vous aider à exercer les droits des personnes (accès, suppression, portabilité)
La base légale du traitement
Chaque traitement de données personnelles via l'IA doit avoir une base légale au sens de l'article 6 du RGPD. Pour les PME, les trois bases les plus utilisées sont :
Exécution du contrat
Si l'IA est utilisée pour exécuter un service commandé par le client (ex : résumé automatique d'un dossier client dans le cadre d'une prestation)
Intérêt légitime
Pour les usages internes qui ne lèsent pas les droits des personnes (ex : automatisation de tâches RH non décisionnelles, sans profilage)
Consentement
Rarement adapté à un contexte B2B. Utilisé surtout quand l'IA interagit directement avec des clients qui doivent être informés
L'AIPD : quand est-elle obligatoire ?
L'Analyse d'Impact relative à la Protection des Données (AIPD) est obligatoire dès que le traitement est susceptible d'engendrer un risque élevé pour les personnes concernées. La CNIL recommande systématiquement une AIPD pour les systèmes d'IA traitant des données personnelles en volume ou impliquant une prise de décision automatisée.
En pratique, une AIPD est nécessaire si votre IA :
L'AIPD ne doit pas être vue comme un frein : c'est un outil de pilotage qui vous aide à identifier et traiter les risques avant le déploiement. En PME, une AIPD bien conduite prend 1 à 3 jours de travail avec un accompagnement adapté.
Checklist contractuelle avec votre prestataire IA
Que vous travailliez avec un éditeur d'outil IA (OpenAI, Mistral, Anthropic) ou avec un intégrateur comme Tensoria, certains points contractuels sont non négociables. Cette checklist est à utiliser lors de la signature de tout contrat impliquant l'IA et vos données.
Zéro entraînement sur vos données
Clause explicite interdisant l'utilisation de vos données pour entraîner, affiner ou améliorer les modèles du prestataire. Vérifiez que cette clause est dans le DPA, pas seulement dans les CGU.
Suppression des données à la fin du contrat
Délai de suppression des données précisé (30 jours maximum recommandé), confirmation écrite de la suppression, et impossibilité pour le prestataire de conserver des copies ou backups contenant vos données après cette date.
Logs d'accès disponibles et auditables
Engagement du prestataire à tenir des journaux d'accès à vos données et à vous les fournir sur demande. En cas d'incident, ces logs sont indispensables pour identifier ce qui a été accédé et quand.
Droit d'audit
Clause accordant à votre entreprise (ou à un tiers mandaté) le droit d'auditer les mesures de sécurité et de conformité du prestataire. Même si vous n'exercez jamais ce droit, son existence dans le contrat est un signal de maturité du prestataire.
Localisation des données précisée
Pays ou régions où vos données sont hébergées, traitées et sauvegardées. Si le prestataire utilise des sous-traitants (sous-processeurs), la liste doit être disponible et toute modification vous être notifiée.
Notification d'incident sous 72 heures
Conformément à l'article 33 du RGPD, le prestataire doit vous notifier toute violation de données dans les 24 heures (pour vous laisser le temps de notifier la CNIL dans les 72 heures). Vérifiez que cette clause est explicite et opérationnelle.
Certifications de sécurité à jour
Le prestataire doit pouvoir justifier d'au minimum une certification ISO 27001 ou équivalent. Pour les secteurs sensibles (santé, finance), exigez HDS ou SOC 2 Type II.
Portabilité des données
Vous pouvez récupérer vos données dans un format standard à tout moment, pas seulement en fin de contrat. Essentiel pour éviter le lock-in et garantir la continuité en cas de changement de prestataire.
Notre retour terrain : sur les projets IA que nous accompagnons, moins de 30 % des PME ont vérifié ces points avant de signer. Le plus souvent, le DPA existe mais n'est pas signé explicitement, ou la clause de suppression des données est absente. Ces points se négocient avant la signature, pas après.
Shadow IA : définir une politique d'usage interne
Le shadow IA est probablement déjà présent dans votre entreprise. Des collaborateurs utilisent ChatGPT, Claude, Copilot ou d'autres outils pour gagner du temps. C'est humain, c'est logique, et c'est souvent bénéfique. Le problème n'est pas l'usage lui-même, c'est l'absence de cadre.
Pourquoi l'interdiction ne fonctionne pas
Une politique "IA interdite" sans alternative revient à interdire l'usage du téléphone personnel au bureau. Vos collaborateurs continuent de l'utiliser, mais en cachette. Résultat : vous perdez la visibilité sur les usages, vous créez une culture de contournement, et vous n'avez aucun levier d'action en cas de problème.
Ce qui fonctionne : fournir un cadre clair avec des outils approuvés, des cas d'usage autorisés, et des règles simples sur ce qu'on ne met jamais dans un prompt.
Les éléments d'une politique d'usage IA efficace
Cartographier les usages existants
Avant d'écrire quoi que ce soit, faites un questionnaire anonyme auprès des équipes : quels outils IA utilisez-vous, pour quelles tâches, avec quel type de données ? Sans cette base, votre politique sera déconnectée de la réalité du terrain.
Définir les données qu'on ne met jamais dans un prompt
Liste courte, simple, mémorisable : pas de nom de client, pas de coordonnées, pas de données financières spécifiques, pas de données RH, pas de code source propriétaire, pas de termes contractuels confidentiels. Cette liste doit tenir en une page A4 affichable au bureau.
Valider les outils autorisés
Donnez une liste courte d'outils approuvés : quel outil pour quel usage. Par exemple : ChatGPT Enterprise (avec DPA signé) pour la rédaction et la synthèse, Copilot M365 (si votre entreprise est sur Microsoft 365) pour les tâches bureautiques, un outil souverain pour les données sensibles. Sans liste positive, vos collaborateurs choisissent eux-mêmes.
Former, pas sanctionner
Une heure de formation pratique sur les bons réflexes est plus efficace qu'une charte de 10 pages que personne ne lit. Montrez des exemples concrets de prompts sûrs et de prompts à risque dans votre contexte métier. Cette formation répond également à l'obligation de literacy IA imposée par l'AI Act (article 4) depuis février 2025.
Réviser trimestriellement
Les outils IA évoluent vite. Une politique écrite en janvier 2026 sera partiellement obsolète en juillet 2026. Planifiez une revue trimestrielle courte (30 minutes) pour mettre à jour la liste des outils approuvés et les cas d'usage.
AI Act : ce qui s'applique en PME en 2026
L'AI Act n'est pas seulement un sujet pour les grandes entreprises tech. Depuis 2025, certaines obligations s'appliquent à toute entreprise qui déploie des systèmes d'IA, quelle que soit sa taille. Voici ce qui vous concerne directement.
Depuis février 2025 : literacy IA obligatoire (article 4)
Toute entreprise qui utilise des systèmes d'IA doit s'assurer que ses collaborateurs comprennent les outils qu'ils utilisent : fonctionnement de base, limites, risques d'erreur. Concrètement : former vos équipes sur les outils IA qu'elles utilisent et documenter cette formation. Si vos collaborateurs utilisent ChatGPT sans formation, vous êtes potentiellement en infraction.
Août 2026 : obligations de transparence pour les déployeurs (article 50)
Si votre PME déploie des chatbots, assistants IA ou systèmes automatisés qui interagissent avec des personnes, vous devez les informer clairement qu'ils interagissent avec une IA. Cette obligation concerne aussi les contenus générés par IA diffusés à des tiers.
IA à haut risque : obligations documentaires lourdes
Si vous utilisez l'IA pour le tri de CV, l'évaluation de performance, le scoring de crédit ou la prise de décision automatisée sur des personnes, vous êtes en territoire haut risque. Obligations : documentation technique, registre, analyse d'impact sur les droits fondamentaux, supervision humaine effective, inscription au registre européen. Pour en savoir plus sur ce calendrier, consultez notre guide AI Act pour les PME.
La bonne nouvelle : la grande majorité des usages IA en PME (assistants de rédaction, résumé de documents, automatisation de tâches internes, recherche d'information) se situent dans les catégories risque minimal ou limité de l'AI Act. Les obligations sont proportionnées. Ce qui est demandé, c'est essentiellement de la transparence et de la documentation, pas de la conformité lourde.
Ce que vous devez avoir en place d'ici août 2026
Questions fréquentes sur la sécurité des données IA en PME
Pour aller plus loin
Pour les textes de référence officiels : les fiches pratiques IA de la CNIL et les recommandations CNIL pour le développement des systèmes d'IA sont les documents de référence pour les DPO et dirigeants. Le portail France Num propose également des ressources adaptées aux PME sur ces sujets.
Passer à l'action
Votre PME est prête à utiliser l'IA de façon sécurisée ?
Nous réalisons un cadrage complet en quelques jours : cartographie des données sensibles, choix d'hébergement adapté, checklist contractuelle et politique shadow IA. Premier échange de 30 minutes, sans engagement.