Tensoria Réserver un créneau
Parlons de votre projet : 07 82 80 51 40
Industrie & Métiers Par Anas R.

Vision IA aéronautique : contrôle qualité, cas concrets et déploiement

Un sous-traitant de rang 1 pour Airbus nous a contactés avec ce constat : "Nos inspecteurs visuels contrôlent 200 pièces par équipe. Sur les pièces structurelles, chaque heure d'inspection manuelle coûte plus cher que la pièce elle-même. Et on sait qu'on laisse passer des défauts en fin de poste."

Ce n'est pas un problème isolé. Dans la filière aéronautique toulousaine, la pression sur les cadences, le coût des rebuts et les exigences de traçabilité EN/AS 9100 convergent vers une même nécessité : automatiser l'inspection visuelle sans sacrifier la rigueur.

La vision par ordinateur appliquée au contrôle qualité aéronautique répond précisément à cette équation. Elle inspecte 100 % des pièces, sans fatigue, avec une constance documentée, et produit une traçabilité exploitable en audit. Mais le succès d'un tel projet tient à des choix techniques précis que les articles génériques ne détaillent pas.

Chez Tensoria, nous accompagnons des industriels de la région toulousaine sur ce type de déploiement. Cet article détaille les cinq cas d'usage terrain les plus courants, la stack technique adaptée à chaque contexte, le process de déploiement en conditions réelles, et les contraintes spécifiques à l'environnement aéro (ITAR, qualification, intégration MES).

En résumé

  • ✓ La vision IA inspecte 100 % des pièces sans fatigue, avec un rappel sur défauts critiques de 97 à 99,5 % sur un jeu de données représentatif
  • ✓ 5 cas d'usage à fort impact : FOD, surface, assemblage, dimensional check photo, lockwire
  • ✓ Stack technique : YOLO/Detectron pour la détection fine, LLM multimodal (Mistral Vision) pour la lecture documentaire
  • ✓ Déploiement en 4 phases : POC 200 images, hardware, validation qualité, formation opérateurs
  • On-premise obligatoire pour les pièces ITAR, modèle hébergé localement
  • ✓ Budget pilote : 8 000 à 20 000 €, ROI calculé sur rebuts évités et temps d'inspection

Pourquoi la vision IA en aéronautique, et pourquoi maintenant

L'inspection visuelle manuelle a tenu ses promesses pendant des décennies. Elle reste indispensable pour les CND structurels (ultrasons, FPI, radiographie). Mais sur le contrôle visuel de surface, l'assemblage et la vérification documentaire, elle atteint ses limites dans le contexte actuel.

Le coût des rebuts et des non-conformités échappées

Dans l'aéronautique, le coût d'une non-conformité non détectée à la source est asymétrique. Une rayure passée inaperçue en production peut conduire à une dépose en MRO, à un retour client ou, dans les cas extrêmes, à un incident de sécurité. Le coût d'un rebut détecté tardivement est 10 à 100 fois supérieur au coût d'un rebut détecté à la source.

Or, les études industrielles montrent qu'un opérateur qualifié en inspection visuelle maintient une attention optimale pendant les deux premières heures d'un poste de 8 heures. Le taux de détection des défauts subtils peut chuter de 15 à 25 % en fin de poste, selon la charge cognitive et la répétitivité de la tâche. Ce n'est pas un défaut humain : c'est une limite physiologique connue et documentée.

La montée en cadence Airbus et ses implications

Airbus vise 75 appareils de la famille A320 par mois. Pour les sous-traitants toulousains, cette cadence implique un volume d'inspection proportionnellement supérieur, avec des effectifs qualité qui ne croissent pas au même rythme. La productivité de l'inspection doit augmenter, ce qui rend l'automatisation incontournable sur les contrôles répétitifs et à fort volume.

La traçabilité EN/AS 9100 devient un avantage concurrentiel

Un système de vision IA produit automatiquement, pour chaque pièce inspectée : l'image de référence, le résultat de décision, la version du modèle ayant statué, l'horodatage et l'identifiant opérateur ayant validé. C'est un niveau de traçabilité documentaire que l'inspection manuelle ne peut pas atteindre sans un effort administratif considérable. Pour les sous-traitants qui répondent aux appels d'offres Airbus, Collins Aerospace ou Safran, cette traçabilité automatisée devient un argument de différenciation.

Le NDT augmenté : la vision IA comme pre-screening

Sur les processus FPI (Fluorescent Penetrant Inspection) et de radiographie numérique, la vision IA ne remplace pas l'opérateur certifié Cofrend. Elle intervient en pre-screening : analyse automatique des images de ressuage, détection des zones suspectes à inspecter en priorité, élimination des images sans indication. L'opérateur certifié concentre son attention sur les 3 à 8 % d'images suspectes identifiées par le modèle, au lieu d'examiner 100 % des images à densité de travail constante.

Pour comprendre les enjeux d'automatisation plus larges dans le secteur, notre article sur l'automatisation des processus aéronautiques à Toulouse détaille les cas supply chain et conformité EN 9100.

Cinq cas d'usage terrain en détail

Ces cinq cas d'usage couvrent l'essentiel des besoins d'inspection visuelle que nous rencontrons chez les sous-traitants aéronautiques. Ils diffèrent par la nature du défaut, le modèle adapté et le niveau de complexité du déploiement.

1. Détection de défauts de surface (rayures, corrosion, FOD)

C'est le cas d'usage le plus courant et celui pour lequel les modèles de vision IA sont le plus matures. Il s'applique à l'inspection de pièces usinées, de structures composite, de revêtements et de surfaces traitées.

Les défauts ciblés :

  • Rayures et éraflures : défauts de manipulation post-usinage, souvent en limite de tolérance
  • Corrosion : sur pièces aluminium ou acier, détection de piqûres, de cloquage de revêtement, de corrosion inter-granulaire visible
  • FOD (Foreign Object Damage / Debris) : impacts de corps étrangers sur les surfaces, notamment sur les bords d'attaque et les entrées de réacteur
  • Défauts de revêtement : manques de peinture, surépaisseurs, délaminage de primer

La clé technique ici est l'éclairage. Les défauts sub-millimétriques sur des surfaces réfléchissantes ne sont visibles qu'avec un éclairage rasant (pour les rayures) ou une lumière diffuse structurée (pour la corrosion). Le modèle IA n'est aussi bon que l'image qu'il reçoit : investir dans le setup optique est non négociable avant de parler d'algorithme.

Résultat type

Sur un périmètre d'inspection de 400 pièces par équipe (pièces de structure aluminium), un système YOLO entraîné sur 2 000 images annotées permet de détecter 98,3 % des défauts critiques (supérieurs à 0,3 mm) avec un taux de faux positifs de 4,5 %. Temps d'inspection par pièce : 1,2 seconde contre 45 secondes en manuel.

2. Inspection d'assemblage et vérification de présence

Ce cas d'usage couvre la vérification que tous les composants d'un assemblage sont présents, correctement positionnés et dans le bon état : présence de fixations, orientation correcte de clips, présence de joints, absence de corps étrangers dans une cavité.

Il s'applique typiquement en bout de ligne d'assemblage, avant la fermeture d'un panneau ou le passage à l'étape suivante. C'est un point de contrôle critique : une fixation manquante dans une zone inaccessible après fermeture entraîne une dépose coûteuse en MRO.

Techniquement, ce cas d'usage tolère des modèles plus légers que la détection de défauts fins, mais exige une excellente gestion des variations de configuration (même zone, différents numéros de part, légères variations de montage selon les configurations avion). L'approche par masques de segmentation (Detectron2, SAM) est plus adaptée que la détection par bounding box pure pour les assemblages complexes.

3. Vérification dimensionnelle par photo et OCR

La vérification dimensionnelle traditionnelle repose sur des instruments de métrologie (pied à coulisse, tridimensionnelle, profilomètre). La vision IA ne les remplace pas pour les tolérances serrées (en dessous de 0,05 mm). En revanche, elle couvre efficacement la vérification dimensionnelle visuelle : cotes de perçage, positionnement de gravures, vérification de conformité de forme sur des écarts supérieurs à 0,5 mm.

Combinée à l'OCR, elle adresse un autre besoin fréquent : la vérification que la pièce physique correspond au bon numéro de part, à la bonne révision de plan, et que les marquages réglementaires sont lisibles et corrects. Ce cas d'usage associe un modèle de détection (identifier la zone à lire) à un modèle OCR (extraire le texte) et à une vérification de cohérence avec la base de données de nomenclature.

La chaîne complète peut être orchestrée via un workflow n8n qui récupère l'image de la caméra, appelle les modèles, vérifie la cohérence avec le MES, et enregistre le résultat dans la GED qualité.

4. Lecture de plaques constructeur et identification de pièces

Dans les processus MRO (Maintenance, Repair and Overhaul) et en réception fournisseurs, l'identification des pièces par lecture automatique de leurs plaques est un gain immédiat. Une plaque constructeur sur une pièce aéronautique contient le numéro de part, le numéro de série, le numéro de lot, la date de fabrication, et parfois des codes de certification.

La lecture manuelle de ces plaques est lente (30 à 60 secondes par pièce), source d'erreurs de saisie, et peu traçable. Un modèle LLM multimodal comme Mistral Vision ou GPT-4o excelle dans ce cas d'usage : il comprend la structure variable des plaques (différents constructeurs, différents formats), tolère les éclairages difficiles, et génère directement la structure JSON à injecter dans le système de gestion.

Pour des volumes élevés en ligne de production (plusieurs pièces par minute), un modèle dédié entraîné sur le format de plaques du donneur d'ordre est plus rapide et plus économique qu'un LLM multimodal en API. Pour des volumes faibles ou des formats très variés (réception tous fournisseurs), le LLM multimodal est préférable en raison de sa généralisation.

5. Contrôle visuel boulonnage et lockwire

Le lockwire (fil de sécurité) est un dispositif anti-desserrage utilisé sur les fixations critiques. Sa vérification est aujourd'hui manuelle et chronophage : un opérateur parcourt visuellement chaque fixation pour vérifier que le fil est présent, correctement installé (sens de vrillage, tension, points de fixation) et non endommagé.

Ce cas d'usage est techniquement exigeant pour la vision IA : le lockwire est fin, brillant, et souvent dans des zones encombrées avec des variations importantes d'éclairage. Il nécessite des caméras haute résolution, un éclairage annulaire polarisé pour réduire les reflets, et un modèle entraîné spécifiquement sur ce type de défaut.

Des déploiements en cours chez des équipementiers Tier 1 montrent des taux de détection supérieurs à 96 % pour les absences de lockwire, et supérieurs à 90 % pour les installations non conformes (sens de vrillage incorrect). Les faux positifs restent le défi principal et justifient un circuit de validation humaine pour les cas ambigus plutôt qu'une décision IA autonome.

Stack technique : choisir le bon modèle pour le bon cas d'usage

Le marché des modèles de vision IA est désormais suffisamment mature pour que le choix de l'architecture ne soit plus une question académique. Voici les critères de sélection que nous appliquons selon les contextes.

Modèles de détection dédiés : YOLO, Detectron2, Grounding DINO

Ces modèles sont la colonne vertébrale des systèmes de vision industrielle à fort volume.

Modèle Point fort Limite Cas d'usage aéro adapté
YOLOv9 / YOLOv10 Vitesse d'inférence (< 10 ms), embarquable sur edge GPU Moins précis sur les petits objets et défauts sub-millimétriques Détection FOD, défauts surface, contrôle présence en ligne
Detectron2 (Meta) Segmentation instance précise, gestion des occlusions Plus lourd, inférence 50 à 200 ms, nécessite GPU dédié Inspection assemblage, vérification lockwire, analyse composite
Grounding DINO Détection zero-shot guidée par texte, sans ré-entraînement Performances inférieures à un modèle fine-tuné sur données spécifiques Prototypage rapide, recherche de défauts nouveaux, POC avant annotation
SAM 2 (Segment Anything) Segmentation pixel-perfect guidée par prompt, sans training Pas de classification native, nécessite une couche de post-traitement Délimitation précise de zones de défauts, pre-annotation de datasets

LLM multimodaux : Mistral Vision, GPT-4o, LLaVA

Les LLM multimodaux apportent une capacité que les modèles de détection classiques n'ont pas : la compréhension du contexte de l'image et la génération de texte structuré à partir d'une image.

Dans les cas d'usage aéronautiques, leur périmètre d'utilisation optimal est :

  • Lecture et structuration de plaques constructeur : extraction JSON des champs, tolérance aux formats variables
  • Génération de rapports d'inspection : à partir d'images annotées, rédaction automatique de la section "constatations" d'un rapport de contrôle
  • Analyse de photographies de chantier MRO : identification de l'état général d'un sous-ensemble, détection des non-conformités évidentes sur photos de documentation
  • Classification contextuelle : distinguer un défaut acceptable d'un défaut rebutant en tenant compte du contexte de la pièce décrit en texte (zone critique, tolérance spécifiée)

Mistral Vision (modèle Mistral Pixtral) présente l'avantage d'être hébergeable on-premise, ce qui est déterminant pour les données ITAR. Pour les données non contraintes, GPT-4o offre de meilleures performances brutes en compréhension contextuelle.

Edge computing vs cloud vs on-premise

Le choix de l'architecture d'hébergement dépend de trois critères : latence requise, sensibilité des données, et volume de traitement.

Architecture Latence Souveraineté données Coût infrastructure Adapté si
Edge GPU (NVIDIA Jetson, box industrielle) < 20 ms Totale (données locales) 800 à 3 000 € hardware Ligne cadencée, contrainte ITAR, pas de réseau en atelier
Serveur GPU on-premise 20 à 100 ms Totale 5 000 à 25 000 € selon puissance Plusieurs postes d'inspection, modèles lourds (Detectron), ITAR
Cloud privé souverain (OVH, Scaleway) 100 à 500 ms Bonne (RGPD, France) 200 à 1 500 €/mois Données non ITAR, LLM multimodal, volume variable
API cloud (Azure, AWS, GCP) 200 ms à 2 s Limitée (hors UE possible) Usage à la requête POC uniquement, données non sensibles

Pour toute donnée relative à des pièces soumises à l'ITAR, la règle est stricte : edge ou on-premise uniquement. Aucune image ne doit transiter par un service cloud hors juridiction autorisée. Nous détaillons les architectures souveraines dans notre article sur sécurité des données IA et souveraineté.

Process de déploiement : de la preuve de concept à la production

Un déploiement de vision IA en environnement aéronautique suit une séquence non compressible. Vouloir brûler une étape pour gagner du temps conduit systématiquement à des systèmes peu fiables ou non qualifiables EN 9100.

Phase 1 : POC sur 200 à 500 images (4 à 6 semaines)

L'objectif du POC est de valider la faisabilité technique avant tout engagement hardware ou organisationnel. Concrètement :

  • Collecte des images de référence. 200 images minimum par catégorie de défaut, avec représentation des variantes d'éclairage, d'angle et de sévérité. Pour les défauts rares (corrosion avancée, FOD sévère), compléter par des défauts simulés ou synthétisés.
  • Annotation. Chaque image est annotée par un expert qualité, pas par un prestataire offshore. L'annotateur doit comprendre la différence entre un défaut rebutant et une indication acceptable selon les critères de votre plan de contrôle. C'est l'étape la plus coûteuse en temps humain qualifié.
  • Entraînement et évaluation. Premier entraînement, mesure du rappel (tous les défauts détectés ?) et de la précision (pas trop de fausses alarmes ?). Identification des cas d'erreur pour guider la collecte d'images supplémentaires.
  • Seuil de décision. Définir le seuil de confiance au-delà duquel le système décide seul vs. renvoie vers un opérateur. Ce seuil est un choix métier, pas technique : il arbitre entre le risque de laisser passer un défaut (seuil trop haut) et le coût des fausses alarmes (seuil trop bas).

À l'issue du POC, vous disposez d'une matrice de performances : rappel par catégorie de défaut, taux de faux positifs, distribution des cas ambigus. C'est sur cette base que la décision de passer en production est prise.

Phase 2 : intégration hardware (3 à 8 semaines)

Le passage du POC (images fournies manuellement) à la production (flux en temps réel) est souvent sous-estimé. Il inclut :

  • Sélection et installation des caméras. Résolution, vitesse d'obturation, interface (GigE Vision, USB3, Camera Link) adaptées à la cadence de ligne. Pour l'inspection de pièces mobiles, des caméras linéaires (line scan) sont préférables aux caméras matricielles.
  • Système d'éclairage. C'est le poste le plus critique et le plus souvent bâclé. Pour les surfaces réfléchissantes : éclairage rasant ou lumière structurée. Pour la détection de corps étrangers dans des cavités : éclairage coaxial. Pour la vérification dimensionnelle : éclairage diffus uniforme. Un éclairage inadapté rend le meilleur modèle inutile.
  • Triggering et synchronisation. Le système de capture doit être déclenché au bon moment dans le cycle de production : cellule photoélectrique, signal API de la ligne, ou vision trigger sur mouvement. Un déclenchement mal synchronisé produit des images floues inutilisables.
  • Intégration avec le MES / la GPAO. Le résultat de l'inspection (conforme / non-conforme / à valider) doit alimenter le système de suivi de production : création automatique d'une NCR, blocage de l'ordre de fabrication si rebut, traçabilité horodatée dans le dossier de lot.

Phase 3 : validation qualité et qualification du système (4 à 8 semaines)

C'est la phase que les intégrateurs non spécialisés en aéronautique ont tendance à sous-estimer. Pour qu'un système de vision IA soit intégré dans un processus qualité EN/AS 9100, il doit être qualifié comme outil logiciel.

La qualification implique :

  • Un plan de validation documenté : jeux de données de qualification (différents des données d'entraînement), critères d'acceptation chiffrés, conditions d'essai représentatives
  • Des procédures de gestion des modifications : qui peut modifier le modèle (ré-entraînement) ? Quelle validation est requise après modification ? Comment est gérée la transition entre versions ?
  • Un cahier des charges de performance : spécifications de rappel et précision qui constituent les critères d'acceptation du système, révisables lors des audits
  • Une procédure de surveillance : comment détecter une dérive des performances en production ? (distribution des scores de confiance, taux de renvoi vers opérateur, échantillonnage de contrôle)

Cette qualification est un travail de 3 à 6 semaines avec le service qualité du client. Elle est non compressible mais constitue aussi la preuve tangible que le système est fiable.

Phase 4 : formation des opérateurs et mise en production

Un système de vision IA en production aéronautique n'est pas autonome : il est assisté. L'opérateur reste dans la boucle pour :

  • Valider les cas ambigus que le modèle renvoie avec un score de confiance intermédiaire
  • Déclencher les requalifications et gestes de nettoyage / reset si le taux de faux positifs dérive
  • Escalader vers le service qualité si un type de défaut nouveau apparaît (non dans le scope du modèle)
  • Documenter les écarts entre la décision IA et sa propre décision, pour alimenter les jeux d'amélioration du modèle

La formation dure typiquement 1 à 2 jours pour les opérateurs de ligne, et 2 à 3 jours pour les qualiticiens qui supervisent le système. L'enjeu n'est pas l'interface (généralement simple) mais la compréhension des limites du système et la capacité à identifier les situations où il faut le mettre en pause.

Cas concret terrain : inspection de revêtements sur pièces de structure

Contexte : un sous-traitant de rang 2 produisant des pièces de structure aluminium pour les nacelles Airbus. 350 pièces par équipe, contrôle visuel de l'intégrité du revêtement primer (absence de manques, de bulles, de contaminants) avant passage en peinture finale. Deux opérateurs dédiés à ce contrôle, 6 minutes par pièce en manuel.

Le problème terrain : en fin de poste, le taux de détection des défauts en limite d'acceptabilité (manques < 2 cm²) chute significativement, conduisant à des retouches en peinture sur des pièces déjà peintes, avec un coût de reprise de 180 à 400 euros par pièce selon la complexité.

Ce que nous avons déployé :

  • 2 caméras matricielles 12 Mpx, éclairage UV polarisé (le primer fluoresce sous UV, rendant les manques très contrastés), monture sur portique fixe en sortie de cabine
  • Modèle YOLOv10 entraîné sur 1 800 images annotées (dont 600 en conditions d'éclairage dégradé pour robustesse), fine-tuning sur GPU NVIDIA A4000 en local
  • Inférence edge sur box industrielle Advantech (GPU embarqué), latence 800 ms par pièce avec 3 images (angles différents)
  • Interface opérateur : écran industriel sur le poste, affichage de l'image avec les zones suspectes encadrées, bouton "Valide" / "Rebut" / "À qualifier" pour les cas ambigus
  • Connexion au MES via API REST : résultat injecté automatiquement dans le dossier de lot, NCR créée automatiquement en cas de rebut

Résultats après 3 mois de production :

  • Rappel sur les manques critiques (> 1 cm²) : 98,7 %
  • Taux de faux positifs : 3,2 % (pièces renvoyées à l'opérateur inutilement)
  • Réduction du temps d'inspection : de 6 minutes à 0,8 seconde (décision IA) + 15 secondes (validation opérateur pour les cas ambigus, soit 8 % des pièces)
  • Réduction des reprises en peinture : 67 % sur les 3 premiers mois, soit un gain estimé de 28 000 euros sur la période
  • Zéro non-conformité échappée client sur la période

Contraintes spécifiques à l'environnement aéronautique

ITAR et contrôle des données images

Si les pièces inspectées appartiennent à des programmes soumis à l'ITAR (typiquement : tout programme de défense, missiles, systèmes de guidage, mais aussi certains composants d'avions militaires), les images de ces pièces sont des données techniques contrôlées. Leur transmission à un service cloud situé hors des États-Unis ou de juridictions alliées autorisées est réglementairement interdite.

Dans la pratique, pour un sous-traitant français travaillant sur ces programmes, l'architecture est la suivante : caméra → edge device ou serveur on-premise local → modèle IA hébergé localement → résultats injectés dans le MES interne. Aucune image ne quitte le réseau de l'entreprise.

Qualification logicielle en contexte pièces critiques

Pour les pièces de catégorie critique (Primary Flight Display, commandes de vol, train d'atterrissage), l'IA de vision ne peut pas être le seul système de décision. Elle intervient comme outil d'aide à la décision avec validation humaine obligatoire. La qualification du système doit documenter explicitement que la décision finale reste humaine et que l'IA est un outil, pas un juge.

Pour les pièces secondaires et les défauts visuels de surface sur des zones non critiques, une décision IA autonome (pass / fail sans validation humaine systématique) peut être acceptable sous réserve d'une qualification rigoureuse du système et d'un échantillonnage de contrôle régulier.

Variabilité des références et gestion du parc de modèles

Un site de production aéronautique peut avoir 50 à 300 références de pièces différentes, chacune avec ses propres critères d'acceptation. Créer un modèle par référence est impossible à maintenir. L'approche réaliste est de grouper les références par famille de défauts et de surface, et de déployer 3 à 8 modèles couvrant l'ensemble des cas.

La gestion de ce parc de modèles exige une infrastructure de MLOps : versionning des modèles, mapping référence-pièce vers modèle à appliquer, monitoring des performances par modèle, et procédure de ré-entraînement quand une nouvelle référence ou un nouveau défaut apparaît.

Pour approfondir le cadrage d'un projet IA industriel, notre article sur le cahier des charges d'un projet IA en PME détaille les éléments à spécifier avant de lancer un appel d'offres.

Intégration dans le système qualité documentaire

Le système de vision IA doit s'intégrer dans votre GED qualité existante. Chaque inspection produit un enregistrement : identifiant pièce, date et heure, version du modèle, score de confiance, décision, image annotée archivée. Cet enregistrement est traçable et exploitable lors des audits EN/AS 9100 ou lors des 8D client.

La gestion documentaire IA pour l'industrie détaille comment connecter ces flux d'inspection à une base de connaissances qualité interrogeable.

Pour aller plus loin

Passer au concret

Vous avez un process d'inspection visuelle à fiabiliser ou à accélérer ?

30 minutes pour évaluer la faisabilité technique, estimer le volume de données nécessaire, et calculer le ROI sur votre périmètre d'inspection.

Réserver un diagnostic gratuit

Questions fréquentes

Sur des défauts de surface bien définis (rayures, corrosion, FOD), les systèmes actuels entraînés sur des jeux de données représentatifs atteignent 97 à 99,5 % de rappel sur les défauts critiques, avec un taux de faux positifs compris entre 2 et 8 % selon la complexité de la surface. Ces chiffres sont obtenus après une phase de calibration sur au moins 500 à 1 000 images annotées par catégorie de défaut. En dessous de ce volume, les performances sont peu fiables.
Oui, dans des cas d'usage précis : lecture de plaques constructeur, vérification de présence d'éléments (lockwire, bague de frein), analyse de rapports photo avec génération automatique de compte rendu. En revanche, pour la détection fine de défauts sur des surfaces métalliques (rayures sub-millimétriques, micro-fissures), les modèles dédiés comme YOLO ou Detectron2 restent supérieurs car entraînés spécifiquement sur ces tâches. Les deux approches sont complémentaires dans une architecture hybride.
Pas systématiquement. Si les pièces relèvent de programmes soumis à l'ITAR (International Traffic in Arms Regulations) ou à des restrictions EAR, les images de ces pièces sont considérées comme des données techniques contrôlées. Elles ne peuvent pas transiter par des serveurs situés hors de juridictions autorisées. Dans ces cas, le système de vision IA doit être déployé en on-premise ou sur une infrastructure cloud privée certifiée, avec un modèle hébergé localement. Chez Tensoria, nous construisons ces architectures souveraines pour les sous-traitants toulousains soumis à ces contraintes.
Un POC sérieux (200 à 500 images, un cas d'usage ciblé, un modèle entraîné, une interface de validation) représente entre 8 000 et 20 000 euros selon la complexité du défaut à détecter et l'état de la donnée d'entrée. Le déploiement en production avec intégration hardware (caméras, éclairage, connexion MES) ajoute 15 000 à 50 000 euros selon la complexité de la ligne. Le ROI se calcule sur la réduction du taux de rebut, du temps d'inspection et du coût des non-conformités échappées.
Le volume minimal réaliste est de 200 à 500 images par catégorie de défaut pour un premier modèle exploitable, mais les performances seront limitées. Un modèle production-ready nécessite généralement 1 000 à 5 000 images annotées par classe, avec une représentation équilibrée des variantes d'éclairage, d'angle et de sévérité du défaut. La data augmentation permet de multiplier le volume artificiel, mais ne remplace pas la diversité réelle. Le coût de l'annotation par un expert qualité est souvent le premier poste budgétaire du projet.
Non, et ce n'est pas l'objectif dans les configurations actuelles. La vision IA augmente l'opérateur qualifié : elle inspecte 100 % des pièces sans fatigue, détecte les défauts visuels de surface avec une constance que l'œil humain ne peut pas maintenir sur 8 heures, et priorise les cas ambigus pour la décision humaine. Sur les CND structurels (ultrasons, radiographie, FPI), la vision IA traite le pre-screening visuel et le post-traitement des images, mais la validation réglementaire reste du ressort d'un opérateur certifié Cofrend niveau 2 ou 3.
L'intégration EN/AS 9100 exige que le système soit qualifié comme outil logiciel dans le processus de production : documentation des performances (taux de détection, seuils de décision), plan de validation avec jeux de données représentatifs, procédure de gestion des modifications (qui peut ré-entraîner le modèle, avec quelle validation), et enregistrement traçable de chaque décision d'inspection (pièce, résultat, image, version du modèle, opérateur validant). C'est une surcharge de qualification non négligeable, mais indispensable pour passer l'audit.
Anas Rabhi, data scientist spécialisé en IA générative
Anas Rabhi Data Scientist & Fondateur de Tensoria

Je suis data scientist spécialisé en IA générative. J'aide les entreprises à économiser du temps grâce à des solutions d'IA sur mesure, adaptées à leur métier. Automatisation de tâches répétitives, assistants internes, traitement intelligent de documents : je conçois des outils qui s'intègrent dans vos processus existants et produisent des résultats concrets.