Tensoria Réserver un créneau
Parlons de votre projet : 07 82 80 51 40
🏥 HealthTech & Logiciel Médical · Toulouse

Éditeur médical : RAG & Support Utilisateur

Un assistant RAG hybride intégré dans un logiciel de statistiques médicales pour réduire la charge support et rendre les utilisateurs autonomes : documentation, vidéos, recherche BM25.

-50%
Tickets support
2
Sources indexées
BM25
Recherche hybride
🇪🇺
LLMs souverains
Assistant RAG pour logiciel médical - Étude de cas Tensoria

Le problème

Cet éditeur toulousain propose un logiciel de statistiques utilisé au quotidien par des professionnels de santé : médecins, chercheurs, équipes hospitalières. Un outil puissant, mais dont la richesse fonctionnelle générait une frustration croissante : les utilisateurs ne trouvaient pas rapidement l'information dont ils avaient besoin.

Résultat : une avalanche de tickets support. Les équipes passaient un temps considérable à répondre aux mêmes questions, souvent déjà documentées dans le logiciel. La documentation existait, les vidéos tutoriels aussi. Mais personne ne les trouvait à temps.

"On a toute la documentation et des vidéos explicatives, mais nos utilisateurs ouvrent un ticket plutôt que de les consulter. On passe nos journées à répondre à des questions déjà répondues."

Avant Tensoria

  • Documentation dispersée, difficile à naviguer
  • Vidéos tutoriels existantes mais introuvables au bon moment
  • Volume élevé de tickets répétitifs pour le support
  • Mots-clés métiers absents des moteurs de recherche classiques
  • Utilisateurs bloqués, productivité impactée

Notre solution

Un assistant RAG intégré, nourri de toute la connaissance du logiciel

📚

Base de connaissance unifiée

La documentation existante du logiciel et les transcriptions des vidéos tutoriels sont indexées dans une base vectorielle Qdrant hébergée en Europe.

IA
🔍

Recherche hybride BM25

Combinaison de la recherche sémantique (embeddings) et lexicale (BM25) pour capturer aussi bien l'intention que les termes techniques précis du domaine médical.

🎬

Push vidéo contextuel

Quand l'assistant détecte qu'une vidéo est la meilleure réponse, il la pousse directement à l'utilisateur, avec l'extrait textuel correspondant.

Comment ça fonctionne

De la question de l'utilisateur à la réponse en quelques secondes

1

Question

L'utilisateur pose sa question en langage naturel depuis l'interface du logiciel

2

Recherche hybride

BM25 + vectoriel interrogent simultanément la base Qdrant pour trouver les passages les plus pertinents

3

Génération

Le LLM souverain (déployé en Europe sur AWS) synthétise une réponse claire à partir des extraits retrouvés

4

Réponse + Vidéo

Réponse textuelle sourcée + lien vers la vidéo tutoriel la plus pertinente si disponible

La base de connaissances

Le premier avantage de ce projet : la connaissance existait déjà. Pas besoin de repartir de zéro. Nous avons exploité deux sources complémentaires déjà produites par l'équipe de l'éditeur.

Les vidéos tutoriels, jusqu'alors sous-exploitées, ont été transcrites automatiquement puis structurées pour être indexées dans la base vectorielle au même titre que la documentation texte. L'assistant peut ainsi renvoyer directement vers la vidéo la plus adaptée à la question posée.

Ce modèle est particulièrement puissant pour les éditeurs de logiciels qui disposent déjà d'une documentation riche : le ROI est immédiat, sans effort de création de contenu supplémentaire.

📄

Documentation logiciel

Guides utilisateurs, références de fonctionnalités, FAQ déjà rédigées, directement ingérées, découpées (chunking) et indexées dans Qdrant.

🎬

Contenu vidéo transcrit

Tutoriels vidéo convertis en texte via pipeline speech-to-text, enrichis de métadonnées (titre, durée, URL) pour un push contextuel vers l'utilisateur.

🗄️

Qdrant : base vectorielle hébergée

Base vectorielle managée, déployée en Europe. Recherche en millisecondes, support natif de la recherche hybride dense + sparse.

Stack technique

Architecture conçue pour répondre aux exigences strictes du secteur médical : souveraineté des données, conformité RGPD, hébergement européen.

Qdrant BM25 Hybrid Search LLMs EU (AWS) Speech-to-Text Embeddings FastAPI Chunking stratégique Reranking

Le défi : les mots-clés techniques

Le logiciel médical comporte des termes très précis : noms de tests statistiques, abréviations métier, codes de fonctionnalités. La recherche sémantique seule les ratait parfois.

  • BM25 + vectoriel : le meilleur des deux mondes : sens et exactitude
  • Score fusionné : Reciprocal Rank Fusion pour combiner les deux scores de pertinence
  • Itérations de prompt : optimisation continue sur les requêtes réelles des utilisateurs
  • LLMs européens : conformité RGPD, données qui ne quittent pas l'UE

Les résultats

Des métriques concrètes, mesurées après déploiement

-50%

Tickets support

Réduction de moitié du volume de tickets entrants grâce aux réponses instantanées de l'assistant

2

Sources exploitées

Documentation textuelle et contenu vidéo réunis dans une base de connaissances unifiée

🇪🇺

Conformité totale

LLMs hébergés en Europe sur AWS, zéro donnée médicale hors du territoire européen

"Les utilisateurs trouvent maintenant les réponses eux-mêmes, et quand l'assistant leur propose directement la bonne vidéo, ils sont bluffés. Notre équipe support peut enfin se concentrer sur les vrais problèmes."

Questions fréquentes

Nous transposons le contenu vidéo en texte via des pipelines de transcription automatisés (speech-to-text), puis nous structurons et indexons ces transcriptions dans la base vectorielle avec les métadonnées associées (titre, URL, durée). L'assistant peut ainsi renvoyer vers les vidéos les plus pertinentes en réponse à une question.
La recherche hybride combine la recherche sémantique (par vecteurs d'embedding) et la recherche lexicale (BM25). BM25 excelle pour retrouver des termes techniques exacts (noms de fonctionnalités, termes statistiques, abréviations métier) que la recherche sémantique seule peut manquer. L'association des deux, fusionnée via Reciprocal Rank Fusion, améliore significativement la précision sur les corpus techniques.
Le secteur médical est soumis au RGPD et à des exigences strictes de souveraineté des données. En déployant les modèles LLM dans des régions AWS européennes (Frankfurt, Paris), les données des utilisateurs ne quittent pas le territoire européen, garantissant la conformité réglementaire et la confiance des professionnels de santé.
Absolument. Tout éditeur de logiciel avec une documentation existante et un volume significatif de tickets support répétitifs peut bénéficier de ce type d'assistant RAG. Le ROI est d'autant plus rapide que la documentation est déjà produite. Contactez-nous pour évaluer votre cas d'usage.

Un assistant RAG pour votre logiciel ?

Votre documentation existe déjà. En 30 minutes, on évalue ensemble comment en faire un assistant qui réduit vos tickets support de moitié.