Éditeur médical : RAG & Support Utilisateur
Un assistant RAG hybride intégré dans un logiciel de statistiques médicales pour réduire la charge support et rendre les utilisateurs autonomes : documentation, vidéos, recherche BM25.
Le problème
Cet éditeur toulousain propose un logiciel de statistiques utilisé au quotidien par des professionnels de santé : médecins, chercheurs, équipes hospitalières. Un outil puissant, mais dont la richesse fonctionnelle générait une frustration croissante : les utilisateurs ne trouvaient pas rapidement l'information dont ils avaient besoin.
Résultat : une avalanche de tickets support. Les équipes passaient un temps considérable à répondre aux mêmes questions, souvent déjà documentées dans le logiciel. La documentation existait, les vidéos tutoriels aussi. Mais personne ne les trouvait à temps.
"On a toute la documentation et des vidéos explicatives, mais nos utilisateurs ouvrent un ticket plutôt que de les consulter. On passe nos journées à répondre à des questions déjà répondues."
❌ Avant Tensoria
- • Documentation dispersée, difficile à naviguer
- • Vidéos tutoriels existantes mais introuvables au bon moment
- • Volume élevé de tickets répétitifs pour le support
- • Mots-clés métiers absents des moteurs de recherche classiques
- • Utilisateurs bloqués, productivité impactée
Notre solution
Un assistant RAG intégré, nourri de toute la connaissance du logiciel
Base de connaissance unifiée
La documentation existante du logiciel et les transcriptions des vidéos tutoriels sont indexées dans une base vectorielle Qdrant hébergée en Europe.
Recherche hybride BM25
Combinaison de la recherche sémantique (embeddings) et lexicale (BM25) pour capturer aussi bien l'intention que les termes techniques précis du domaine médical.
Push vidéo contextuel
Quand l'assistant détecte qu'une vidéo est la meilleure réponse, il la pousse directement à l'utilisateur, avec l'extrait textuel correspondant.
Comment ça fonctionne
De la question de l'utilisateur à la réponse en quelques secondes
Question
L'utilisateur pose sa question en langage naturel depuis l'interface du logiciel
Recherche hybride
BM25 + vectoriel interrogent simultanément la base Qdrant pour trouver les passages les plus pertinents
Génération
Le LLM souverain (déployé en Europe sur AWS) synthétise une réponse claire à partir des extraits retrouvés
Réponse + Vidéo
Réponse textuelle sourcée + lien vers la vidéo tutoriel la plus pertinente si disponible
La base de connaissances
Le premier avantage de ce projet : la connaissance existait déjà. Pas besoin de repartir de zéro. Nous avons exploité deux sources complémentaires déjà produites par l'équipe de l'éditeur.
Les vidéos tutoriels, jusqu'alors sous-exploitées, ont été transcrites automatiquement puis structurées pour être indexées dans la base vectorielle au même titre que la documentation texte. L'assistant peut ainsi renvoyer directement vers la vidéo la plus adaptée à la question posée.
Ce modèle est particulièrement puissant pour les éditeurs de logiciels qui disposent déjà d'une documentation riche : le ROI est immédiat, sans effort de création de contenu supplémentaire.
Documentation logiciel
Guides utilisateurs, références de fonctionnalités, FAQ déjà rédigées, directement ingérées, découpées (chunking) et indexées dans Qdrant.
Contenu vidéo transcrit
Tutoriels vidéo convertis en texte via pipeline speech-to-text, enrichis de métadonnées (titre, durée, URL) pour un push contextuel vers l'utilisateur.
Qdrant : base vectorielle hébergée
Base vectorielle managée, déployée en Europe. Recherche en millisecondes, support natif de la recherche hybride dense + sparse.
Stack technique
Architecture conçue pour répondre aux exigences strictes du secteur médical : souveraineté des données, conformité RGPD, hébergement européen.
Le défi : les mots-clés techniques
Le logiciel médical comporte des termes très précis : noms de tests statistiques, abréviations métier, codes de fonctionnalités. La recherche sémantique seule les ratait parfois.
- BM25 + vectoriel : le meilleur des deux mondes : sens et exactitude
- Score fusionné : Reciprocal Rank Fusion pour combiner les deux scores de pertinence
- Itérations de prompt : optimisation continue sur les requêtes réelles des utilisateurs
- LLMs européens : conformité RGPD, données qui ne quittent pas l'UE
Les résultats
Des métriques concrètes, mesurées après déploiement
Tickets support
Réduction de moitié du volume de tickets entrants grâce aux réponses instantanées de l'assistant
Sources exploitées
Documentation textuelle et contenu vidéo réunis dans une base de connaissances unifiée
Conformité totale
LLMs hébergés en Europe sur AWS, zéro donnée médicale hors du territoire européen
"Les utilisateurs trouvent maintenant les réponses eux-mêmes, et quand l'assistant leur propose directement la bonne vidéo, ils sont bluffés. Notre équipe support peut enfin se concentrer sur les vrais problèmes."
Questions fréquentes
Un assistant RAG pour votre logiciel ?
Votre documentation existe déjà. En 30 minutes, on évalue ensemble comment en faire un assistant qui réduit vos tickets support de moitié.
