Aller au contenu principal
Menu Rechercher

blog

Concevoir un assistant métier IA fiable et maîtrisé pour les équipes commerciales

Dans ce projet, nous avons accompagné une filiale d’un Groupe Pharmaceutique International spécialisé dans les compléments alimentaires dans la conception et le déploiement d’un assistant métier basé sur l’IA, destiné à ses équipes commerciales.

L’objectif : améliorer l’accès à la connaissance produit, homogénéiser les réponses apportées sur le terrain et réduire la sollicitation des experts métiers, tout en maîtrisant les risques d’hallucination et les coûts d’exploitation.

Pour y parvenir, nous avons conçu une solution Data/IA reposant sur une architecture Azure, un RAG strictement encadré et une conviction forte : l’IA doit être utilisée là où elle apporte de la valeur, et seulement à cet endroit.

 

Contexte et enjeux côté client

Le besoin initial

Notre client évolue dans un secteur exigeant, à la croisée de la santé, de la réglementation et de la performance commerciale. Ses équipes doivent être en mesure de répondre rapidement et précisément aux questions des pharmaciens, tout en s’appuyant sur une information produit fiable et à jour.

Un premier POC interne ayant démontré l’intérêt d’un assistant conversationnel, l’enjeu était désormais de passer à l’échelle et de transformer cette expérimentation en une solution robuste et industrialisable.

 

Les enjeux clés

Les attentes exprimées étaient multiples :

  • Mettre à disposition des équipes commerciales un assistant IA métier, simple d’usage
  • Faciliter la vente auprès des pharmaciens, via des réponses cohérentes et homogènes
  • Structurer et diffuser une connaissance experte aujourd’hui peu accessible au fil de l’eau

 

Au-delà de la technologie, le client cherchait avant tout une solution capable de sécuriser les réponses, dans un contexte où l’approximation n’est pas permise.

 

Une réponse pragmatique : l’IA pensée pour les métiers

Dès l’avant-vente, nos équipes ont fait le choix d’une approche volontairement pragmatique. Plutôt que de chercher à construire un chatbot “tout-sachant”, nous avons conçu une solution centrée sur les usages réels des équipes terrain.

Notre parti pris était simple : s’appuyer d’abord sur la connaissance métier existante, et ne mobiliser l’IA générative que lorsqu’elle apporte un bénéfice clair.

 

Cette posture s’est traduite par quelques principes structurants :

  • Prioriser les réponses déterministes lorsque c’est possible
  • Encadrer strictement les usages génératifs
  • Concevoir une architecture évolutive, industrialisable et maîtrisée en coûts

 

Cette approche, à contre-courant des solutions purement conversationnelles, a constitué un facteur différenciant fort dans le cadre de la mise en concurrence.

Architecture fonctionnelle : un RAG maîtrisé

Le cœur de la solution que nous avons conçue repose sur un workflow hybride, combinant une base de connaissances structurée et un moteur RAG. L’objectif : maximiser la fiabilité des réponses tout en conservant la souplesse de l’IA.
 

Étape 1 - Qualification et reformulation de la question

  • Correction et reformulation automatique du prompt utilisateur
  • Détection des produits et des symptômes métiers
  • Optimisation de la compréhension amont pour fiabiliser les réponses
     

Étape 2 - Recherche prioritaire dans la base de réponses métier

  • Base de données structurée (ex-Excel rationalisé)
  • Réponses validées par les experts
  • Zéro hallucination sur ces cas d’usage
     

Étape 3 - Activation du RAG si nécessaire

  • Recherche sémantique via Azure AI Search
  • Contenus sourcés issus de la documentation produit
  • Génération de réponses contextualisées et traçables
     

Étape 4 - Boucle d’enrichissement continu

  • Si aucune réponse n’existe, les experts peuvent alimenter la base
  • La connaissance est réinjectée pour les prochains utilisateurs
     

👉 Résultat : une IA qui répond juste, et non une IA qui “répond à tout”.

 

De la documentation brute à une connaissance exploitable

La documentation initiale du client reposait sur des notes métiers, historiquement stockées sous OneNote puis exportées en PDF. Un travail de fond a donc été nécessaire pour rendre ces contenus exploitables par un moteur IA.

Pipeline de transformation

Nous avons conçu un pipeline de transformation structuré :

  • Conversion des PDF en Markdown
  • Normalisation des contenus via des résumés IA selon un format cible
  • Extraction systématique des informations clés par produit

 

Stratégie de chunking avancée

Les données ainsi préparées sont stockées sur Azure Blob Storage, puis découpées selon une stratégie de chunking avancée, combinant une vue globale par produit et des sous-sections thématiques (contre-indications, usages, posologie…).

Cette structuration fine permet d’améliorer à la fois la pertinence des réponses et la maîtrise des coûts d’inférence.

 

Une plateforme pensée pour l’adoption utilisateur

Choix de l’interface

L’assistant est accessible via une interface Open WebUI, volontairement proche des usages déjà connus des utilisateurs (type ChatGPT). Ce choix facilite la prise en main et limite les efforts de conduite du changement.

 

Expérience utilisateur

La plateforme offre :

  • Un accès conversationnel simple
  • Un historique des échanges
  • Une interface asynchrone, permettant à plusieurs utilisateurs de converser simultanément

 

Semi open-source, la solution a été personnalisée en marque blanche afin de s’intégrer naturellement à l’environnement du client.

 

Performance, scalabilité et maîtrise des coûts

Mise en production progressive

La mise en production a été réalisée de manière progressive, avec une ouverture par paliers. Cette approche nous a permis d’observer le comportement réel de la plateforme et d’ajuster finement les ressources.

 

Observabilité et run

Un dispositif d’observabilité a été mis en place pour suivre les requêtes LLM, calibrer les containers et anticiper les pics d’usage, notamment lors du lancement simultané auprès d’une centaine d’utilisateurs.

Les temps de réponse ont été stabilisés autour de 10 à 12 secondes, tout en maintenant un strict contrôle des coûts.

 

Optimisation des coûts IA

Cette performance repose également sur un choix fin des modèles, sélectionnés en fonction de chaque tâche : petits modèles pour la reformulation, modèles plus puissants uniquement pour la génération complexe.

 

Résultats et perspectives

La solution a été livrée dans les délais par nos équipes et rapidement adoptée par les utilisateurs. L’architecture conçue permet aujourd’hui d’envisager sereinement de nouveaux usages.

Parmi les pistes identifiées :

  • Extension à d’autres populations
  • Automatisation complète des pipelines d’ingestion
  • Enrichissement progressif des cas d’usage métier

 

Ce qu’il faut retenir

Ce projet illustre une conviction forte : une IA métier efficace repose d’abord sur la structuration de la connaissance et la compréhension fine des usages.

Le RAG n’est pertinent que s’il est encadré et orchestré intelligemment, et la performance passe autant par l’architecture que par le choix des modèles.

Enfin, une IA responsable est aussi une IA maîtrisée en coûts, en usages et dans le temps.

 

Vous avez un projet Data ou IA et souhaitez concevoir un assistant métier fiable, scalable et réellement utile au terrain ? Parlons-en.

 

 

FAQ - Assistant métier IA et RAG maîtrisé

 

Qu’est-ce qu’un assistant métier basé sur l’IA ?

Un assistant métier IA est un outil conversationnel conçu pour répondre à des besoins opérationnels précis, en s’appuyant sur la connaissance interne de l’entreprise. Contrairement à un chatbot générique, il est encadré, contextualisé et aligné avec les usages métiers.

 

Pourquoi utiliser un RAG pour un assistant IA ?

Le RAG (Retrieval Augmented Generation) permet de combiner recherche documentaire et génération de texte. Lorsqu’il est maîtrisé, il améliore la fiabilité des réponses, limite les hallucinations et garantit un meilleur contrôle des contenus restitués.

 

Comment limiter les hallucinations d’un chatbot IA ?

La clé réside dans une architecture hybride : prioriser des réponses déterministes validées par les experts, et ne solliciter l’IA générative que lorsque cela est pertinent, avec des sources clairement identifiées.

 

Pourquoi héberger un assistant IA sur Azure ?

Azure offre un écosystème complet pour les projets Data/IA : services managés, sécurité, scalabilité et intégration native avec des outils de recherche sémantique comme Azure AI Search.

 

Un assistant IA métier est-il coûteux à exploiter ?

Lorsqu’il est bien conçu, un assistant IA peut rester économiquement maîtrisé. Cela passe par le choix des modèles adaptés à chaque tâche, une architecture scalable et un pilotage fin des usages en production.

Simon, Responsable IA chez ASI | Février 2026