Continental : de 67% à 89% de précision avec un assistant IA RAG
Un assistant IA industriel basé sur le RAG et l'hybrid search, déployé pour 2 000+ utilisateurs sur les lignes de production. La bonne réponse technique en moins de 10 secondes.
Le contexte
Chez Continental, l'un des leaders mondiaux de l'automobile et de l'équipement industriel, une ligne de production s'arrête. Les opérateurs cherchent la bonne procédure dans des centaines de pages de documentation technique. Trente minutes passent. Chaque heure d'arrêt non planifié coûte des milliers d'euros.
Le problème n'était pas l'absence d'information. Continental disposait de plus de 15 000 documents techniques : manuels d'équipements, procédures de maintenance, historiques de pannes, normes de sécurité. Mais ces documents étaient dispersés entre SharePoint, des PDF et des wikis internes, sans système unifié de recherche.
Objectif : fournir la bonne réponse technique, sourcée et vérifiable, en moins de 10 secondes.
⏱️ Avant l'assistant IA
- • 30 à 60 minutes pour trouver la bonne procédure de dépannage
- • 33% des interventions basées sur l'expérience personnelle faute de documentation accessible
- • 15 000 documents éparpillés entre SharePoint, PDF et wikis
- • Nouveaux opérateurs dépendants des seniors pour interpréter la documentation
- • Aucune solution capable de servir 2 000+ utilisateurs sur plusieurs sites
La solution : hybrid search
Pourquoi la recherche sémantique seule ne suffisait pas
Recherche sémantique seule
Comprend le sens, rate les détails
- → Comprend « comment réparer le convoyeur »
- → Échoue sur « référence pièce XJ-4872-B »
- → Ignore les codes d'erreur exacts (E-1042)
- → 67% de réponses correctes
Hybrid search (sémantique + BM25)
Le sens + la précision exacte
- → Comprend l'intention derrière la question
- → Retrouve les références de pièces exactes
- → Identifie les codes d'erreur et terminologies précises
- → 89% de réponses correctes
L'insight clé. En industrie, les documents contiennent des références de pièces, des codes d'erreur et des terminologies très spécifiques. La recherche lexicale BM25 complète la recherche sémantique pour capturer ces correspondances exactes. C'est ce qui a fait passer la précision de 67% à 89%.
Architecture RAG
Le pipeline complet, de l'ingestion à la réponse sourcée
Ingestion
Connexion aux sources (SharePoint, PDF, wikis). Nettoyage, découpage en chunks optimisés et extraction de métadonnées. 40% de l'effort total.
Vectorisation
Chaque chunk est transformé en vecteur sémantique et indexé dans Pinecone avec les termes clés pour la recherche BM25 en parallèle.
Récupération hybride
À chaque question, recherche sémantique et lexicale BM25 en parallèle. Les résultats sont fusionnés et classés par pertinence.
Génération
Le LLM synthétise une réponse précise à partir des documents retrouvés, avec citation des sources et lien vers les documents originaux.
La préparation des données représente 40% de l'effort total. C'est là que se joue la qualité des réponses. Un chunk mal découpé ou des métadonnées absentes, et la pertinence chute.
Résultats concrets
Avant et après le déploiement
Après trois mois de déploiement progressif sur les lignes de production, les résultats parlent d'eux-mêmes. L'assistant IA est devenu un outil quotidien pour les opérateurs et les techniciens de maintenance.
L'adoption a été facilitée par une interface simple : l'opérateur pose sa question en langage naturel et obtient une réponse sourcée en moins de 10 secondes. Pas de formation complexe nécessaire.
Précision des réponses
De 67% avec la recherche sémantique seule à 89% avec l'hybrid search. +22 points grâce à l'ajout de la recherche lexicale BM25.
Temps de recherche
De 30 à 60 minutes de recherche manuelle à moins de 10 secondes pour obtenir la bonne procédure avec les sources.
Adoption à grande échelle
2 000+ utilisateurs sur les lignes de production, sur plusieurs sites. Scalabilité validée en conditions réelles.
Traçabilité complète
Chaque réponse inclut les extraits sources et les liens vers les documents originaux. Indispensable pour la conformité réglementaire en industrie.
Déploiement en 4 phases
De l'audit au déploiement en production en 4 à 6 mois
Audit et préparation des données
2 à 4 semaines
Cartographie des sources documentaires, analyse de la qualité des données, définition des cas d'usage prioritaires. C'est la phase la plus critique : elle représente 40% de l'effort total.
Proof of concept
4 à 6 semaines
Construction du pipeline RAG sur un périmètre restreint. Test avec un panel d'utilisateurs pilotes. Mesure de la précision et itérations sur le chunking et les prompts.
Industrialisation
8 à 12 semaines
Passage à l'échelle : intégration de l'ensemble des 15 000 documents, mise en place de l'hybrid search, déploiement de l'infrastructure pour supporter 2 000+ utilisateurs simultanés.
Optimisation continue
En continu
Monitoring des performances, analyse des questions sans réponse, ajustement du chunking et des paramètres de recherche. Les nouveaux documents sont ingérés automatiquement.
Stack technique
Base vectorielle
Pinecone (hybrid search natif)
LLM
GPT-4, Claude
Orchestration
LangChain
Backend
Python, FastAPI
Recherche
Hybrid (sémantique + BM25)
Questions fréquentes
Déployez un assistant IA pour votre industrie
Discutons de votre contexte documentaire et identifions comment un assistant RAG peut réduire vos temps d'arrêt et accélérer vos équipes.
