accueilinsightsEnjeux et bénéfices liés à la mise en œuvre d’un assistant IA conversationnel
digital solutions

Enjeux et bénéfices liés à la mise en œuvre d’un assistant IA conversationnel

Cindy Nacibide, Tech Lead chez Itecor Paris · octobre 23, 2010

menu

mission

challenges

catalyseurs de succès

contexte & enjeux

Depuis 2024, Itecor accompagne un acteur majeur de l’édition juridique sur un projet stratégique d’intégration d’un assistant IA conversationnel.

S’appuyant sur un tech lead Itecor particulièrement aguerri aux nouvelles technologies et à l’IA, le projet a été mis en œuvre avec succès en janvier 2025 et continue d’évoluer en nouvelles fonctionnalités depuis.

Traditionnellement, le secteur juridique est très demandeur d’IA pour les prévisions de cas, l’analyse des risques et l’évaluation de dommages et intérêts, avec des exigences strictes de respect de la confidentialité, de conformité légale et de traçabilité.

Les enjeux de ce projet de mise en œuvre d’un agent conversationnel IA étaient principalement de :

Simplifier l’accès aux outils et aux informations juridiques, créer et organiser des dossiers clients, rédiger des clauses ou projets types, obtenir une synthèse de la jurisprudence

Accroître la productivité des utilisateurs, la cohérence des informations fournies et identifier les risques juridiques potentiels

Favoriser l’innovation et la diffusion d’une culture IA au sein des équipes

Avant cette initiative, les juristes devaient jongler entre plusieurs outils pour obtenir des réponses à leurs recherches et créations, naviguant laborieusement entre les différents logiciels de gestion de dossiers, les bases documentaires internes, les moteurs de recherche externes et les outils bureautiques pour la rédaction.

Cette multiplicité de sources engendrait des silos d’information, rendant la collecte et la collaboration difficile, une perte de temps pour retrouver les documents et jurisprudences pertinents, et enfin des incohérences dans les livrables.

enjeux métiers

Les gains principaux identifiés pour les équipes métiers étaient principalement de :

Cet agent conversationnel est en évolution constante. Il doit donc prendre en compte, avant chaque nouvelle release, des critères garantissant les acquis des versions antérieures. Et notamment :

Les gains de temps pour l’utilisateur

La sécurité et conformité juridique

La réduction des tâches répétitives au profit de tâches à forte valeur ajoutée

La diminution de la charge mentale et cognitive

L’automatisation de certaines tâches

De même, l’agent conversationnel doit pouvoir apporter à minima des gains en productivité quantifiables tels que :

.Gain de temps minimal d’1 heure par semaine et par utilisateur : cette économie permet de financer entièrement la licence IA associée.

Adoption progressive des utilisateurs: 5 % de clients sous 3 à 6 mois, 10 % à la fin de la première année.

 Dans le cadre de la conception et la réalisation de cet assistant, des actions clés ont permis d’assurer le succès du projet :

conception et architecture du projet

Le développement de l’assistant IA s’inscrit dans une démarche d’innovation continue, guidée par une exigence de robustesse, de sécurité et de réutilisabilité.

Dès les premières phases, l’objectif a été de construire une solution capable d’évoluer au rythme des avancées de l’IA générative tout en s’intégrant naturellement dans les environnements techniques du groupe.

Ces choix techniques permettent d’envisager l’avenir de la solution avec sérénité.

solution & architecture

Le développement de l’assistant s’est appuyé sur une architecture modulaire, réutilisable et évolutive, pensée dès le départ pour accompagner la maturité technologique de la solution et favoriser la mutualisation entre équipes.

Ces choix techniques permettent d’envisager l’avenir de la solution avec sérénité.

sécurité et gouvernance des accès

L’assistant juridique repose sur une architecture cloisonnée, structurée selon une logique  inbound / outbound  stricte. Les flux entrants transitent exclusivement via une API Gateway protégée par un firewall applicatif (WAF), garantissant que seules les requêtes légitimes accèdent aux services internes. Les flux sortants suivent des règles de  routage et de filtrage précises, limitant toute exposition non souhaitée. L’authentification s’appuie sur une authority base JWT, chaque requête étant signée et validée côté backend avant exécution. Les politiques CORS sont configurés de manière restrictive, autorisant uniquement les domaines approuvés, afin de prévenir tout appel non contrôlé.

L’ensemble repose sur les services managés Azure, avec une séparation stricte des environnements et un suivi complet des journaux d’accès.

Les endpoints critiques ne sont jamais exposés directement à Internet : ils transitent par des private endpoints, ajoutant une couche de sécurité réseau supplémentaire.

L’évolution vers un déploiement Blue-Green renforcera encore la fiabilité et la sécurité des mises en production, notamment lors de l’ouverture de flux contrôlés entre Azure et les environnements AWS du groupe.

Cette approche garantit un haut niveau de confidentialité, de traçabilité et de résilience, essentiels dans un contexte juridique particulièrement sensible.

gestion des tools & intégration agentique

Au cœur de l’assistant, les tools jouent un rôle central : ce sont des connecteurs intelligents qui permettent au modèle d’IA d’interagir avec des systèmes externes ou des sources de données internes.

Concrètement, un tool agit comme une extension du raisonnement du modèle, lui donnant la capacité non seulement de répondre à une question, mais aussi d’exécuter une action réelle : interroger une API, générer un document, récupérer des informations juridiques, ou encore orchestrer un flux de travail métier.

Les tools sont aujourd’hui définis manuellement via Swagger, permettant la construction dynamique des requêtes API, la détection d’intentions (résumer, rédiger, exécuter, questionner) et l’exécution paramétrée selon le contexte utilisateur.

Les data scientists du client ont appliqué un tuning avancé en ajustant les prompts et les appels API selon l’intention des utilisateurs, garantissant que l’assistant interprète correctement les demandes et réalise les actions attendues. Ces ajustements, bien que techniques, sont au cœur de la performance de l’assistant : ils permettent de combiner pertinence des réponses et efficacité opérationnelle.

Une première phase R&D a été menée sur Semantic Kernel et Autogen pour explorer les capacités d’orchestration automatique et la planification de tâches complexes.

Cette expérimentation a ensuite conduit à une migration vers Google ADK, offrant une architecture agentique plus flexible et préparant la coordination multi-agents via MCP Tool Server — une brique essentielle pour intégrer de nouveaux cas d’usage tels que Microsoft Graph ou des services internes métier.

Cette évolution vers l’architecture agentique permettra aux équipes de coordonner automatiquement plusieurs agents spécialisés, de centraliser les informations et de réduire le temps consacré à des tâches répétitives ou complexes, tout en maintenant un haut niveau de sécurité et de traçabilité.

L’intégration de nouveaux use cases facilitera l’accès à des sources de données internes et externes, améliorera la qualité des analyses et accélérera la production de livrables fiables.

La diffusion auprès d’autres équipes démontre que l’architecture modulaire et agentique peut être répliquée facilement, offrant scalabilité et flexibilité adaptée à d’autres métiers et contextes organisationnels.

adoption par d’autres équipes

La solution a été mise en production et adoptée par plusieurs équipes internationales, démontrant sa modularité et son adaptabilité.

leçons & perspectives

Sur le plan technique, le tuning des modèles a été central, impliquant l’ajustement des prompts, la description fine des API et la détection d’intentions pour assurer la pertinence des réponses.

La gestion des coûts de tokens et le contrôle d’accès complexe ont également été des points clés.

Du côté organisationnel, la conduite du changement et l’appropriation métier ont été essentielles pour favoriser l’adoption.

La R&D continue dans un bac à sable permet de tester MCP Tool Server, Agent2Agent et de nouveaux outils ou use cases.

À plus long terme, l’extension à d’autres métiers, l’intégration avec le SI (ERP, CRM), le suivi éthique et la conformité RGPD sont envisagés.

synthèse

Le projet illustre l’importance de centraliser, sécuriser et accélérer les pratiques métiers. La réponse apportée, via l’IA conversationnelle sur une architecture modulaire et cloisonnée, évolue vers un modèle agentique, permettant la coordination de multiples agents spécialisés et l’intégration de nouveaux use cases.

Les résultats se traduisent par une productivité accrue, une adoption réussie et une diffusion progressive de la culture IA.

bénéfices & résultats

chiffres clés

Gain de temps moyen

par semaine par utilisateur
≥  0 h

Valeur économique

auto-financement de la licence IA
0 %

Objectif d’adoption

des utilisateurs sous 3 à 6 mois
0 %

10 % à la fin de la première année

plus d'insights

l’expertise ne suffit pas : quand un consultant fait toute la différence


digital solutionsgovernance & service managementquality assurance & testingworking@itecor

octobre 15, 2025

l’intelligence artificielle dans la gestion de projet : des solutions concrètes pour les projets informatiques


digital solutions

septembre 29, 2025

itecor vous invite au Swiss IT Forum(s) 2025


digital solutionsgovernance & service managementquality assurance & testing

août 28, 2025

contactez-nous