menu
mission
- Secteur : édition juridique et information professionnelle
- Début : 2024
- Durée : projet en cours depuis 1,5 an
challenges
- La montée en compétences rapides sur des technologies émergentes, un défi majeur réalisé dans le respect des contraintes de ressources et de délais.
- La conception générique de l’assistant, pensée pour une réutilisation flexible par plusieurs équipes et contextes.
- L’intégration continue des avancées de l’intelligence artificielle, incluant : l’architecture agentique, le MCP Tool Server, le Google ADK, et les modèles O3, assurant une solution à la fois évolutive, performante et adaptée aux besoins métier.
catalyseurs de succès
- Équipe : 1 Tech Lead, 4 développeurs, 2 data scientists, 1 PM, des experts qualité.
- Environnement : Azure OpenAI GPT-4o, .NET 9, React, Terraform.
- Mode de livraison : du POC à la mise en production.
contexte & enjeux
Depuis 2024, Itecor accompagne un acteur majeur de l’édition juridique sur un projet stratégique d’intégration d’un assistant IA conversationnel.
S’appuyant sur un tech lead Itecor particulièrement aguerri aux nouvelles technologies et à l’IA, le projet a été mis en œuvre avec succès en janvier 2025 et continue d’évoluer en nouvelles fonctionnalités depuis.
Traditionnellement, le secteur juridique est très demandeur d’IA pour les prévisions de cas, l’analyse des risques et l’évaluation de dommages et intérêts, avec des exigences strictes de respect de la confidentialité, de conformité légale et de traçabilité.
Les enjeux de ce projet de mise en œuvre d’un agent conversationnel IA étaient principalement de :
Simplifier l’accès aux outils et aux informations juridiques, créer et organiser des dossiers clients, rédiger des clauses ou projets types, obtenir une synthèse de la jurisprudence
Accroître la productivité des utilisateurs, la cohérence des informations fournies et identifier les risques juridiques potentiels
Favoriser l’innovation et la diffusion d’une culture IA au sein des équipes
Avant cette initiative, les juristes devaient jongler entre plusieurs outils pour obtenir des réponses à leurs recherches et créations, naviguant laborieusement entre les différents logiciels de gestion de dossiers, les bases documentaires internes, les moteurs de recherche externes et les outils bureautiques pour la rédaction.
Cette multiplicité de sources engendrait des silos d’information, rendant la collecte et la collaboration difficile, une perte de temps pour retrouver les documents et jurisprudences pertinents, et enfin des incohérences dans les livrables.
enjeux métiers
Les gains principaux identifiés pour les équipes métiers étaient principalement de :
- Gagner en productivité et réduire les tâches répétitives.
- Respecter les contraintes juridiques grâce aux contenus internes RAG, Retrieval Augmented Generation, garantissant la qualité et la fiabilité des résultats : l’assistant IA, en pointant directement sur la RAG, fournit des réponses sûres via un référentiel de sources de confiance.
- Automatiser la création de dossiers en droit des sociétés: c’est une tâche particulièrement chronophage et à faible valeur ajoutée. L’assistant IA, en combinant des prompts avec des données clients et des documents légaux, permet facilement des gains de temps allant de 10 minutes à plus d’une demi-heure par dossier.
- Créer et lier des personnes à des dossiers rapidement et directement, à partir de notes ou éléments d’identité, évitant la navigation fastidieuse et offrant un gain de temps substantiel .
Cet agent conversationnel est en évolution constante. Il doit donc prendre en compte, avant chaque nouvelle release, des critères garantissant les acquis des versions antérieures. Et notamment :
Les gains de temps pour l’utilisateur
La sécurité et conformité juridique
La réduction des tâches répétitives au profit de tâches à forte valeur ajoutée
La diminution de la charge mentale et cognitive
L’automatisation de certaines tâches
De même, l’agent conversationnel doit pouvoir apporter à minima des gains en productivité quantifiables tels que :
.Gain de temps minimal d’1 heure par semaine et par utilisateur : cette économie permet de financer entièrement la licence IA associée.
Adoption progressive des utilisateurs: 5 % de clients sous 3 à 6 mois, 10 % à la fin de la première année.
Dans le cadre de la conception et la réalisation de cet assistant, des actions clés ont permis d’assurer le succès du projet :
- Adhésion organisationnelle : pour construire l’assistant, plusieurs ateliers ont été organisés afin d’analyser la culture IA auprès des clients, identifier les réticences ou au contraire l’appétence à l’usage de l’IA, définir les use cases prioritaires selon les utilisateurs cibles, et enfin vérifier l’adéquation de l’IA au domaine du droit, aux logiciels métiers et aux bases documentaires.
- Participation des clients : certains clients ont été impliqués dès le prototype pour prioriser les use cases. Une enquête auprès de 150 répondants a permis d’obtenir des données quantitatives sur les attentes et de les exploiter.
- Suivi de l’adoption de la solution : le taux d’utilisation a été en permanence mesuré, tout comme la fréquence d’usage par type de use case ainsi que l’analyse de la consommation pour ajuster le prix des licences.
- Conduite du changement : des séminaires et présentations de l’assistant ont été organisés lors de salons, pour diffuser la culture IA et élargir la base clients cible. Ainsi que des formations et ateliers pratiques pour appropriation de la solution par le métier.
conception et architecture du projet
Le développement de l’assistant IA s’inscrit dans une démarche d’innovation continue, guidée par une exigence de robustesse, de sécurité et de réutilisabilité.
Dès les premières phases, l’objectif a été de construire une solution capable d’évoluer au rythme des avancées de l’IA générative tout en s’intégrant naturellement dans les environnements techniques du groupe.
Ces choix techniques permettent d’envisager l’avenir de la solution avec sérénité.
solution & architecture
Le développement de l’assistant s’est appuyé sur une architecture modulaire, réutilisable et évolutive, pensée dès le départ pour accompagner la maturité technologique de la solution et favoriser la mutualisation entre équipes.
- Socle LLM: Azure OpenAI a été retenu pour sa fiabilité et sa compatibilité avec l’écosystème Microsoft. Cette base a permis de lancer rapidement un POC fonctionnel, avant d’évoluer progressivement de GPT-3.5 à GPT-4o, puis d’expérimenter des modèles de raisonnement de nouvelle génération (O3).
- Architecture technique: un modèle micro-frontend (React, .NET 9, SignalR) configurable via un endpoint unique, facilitant la réutilisation du front et la standardisation des intégrations.
- Déploiement: une infrastructure Azure conteneurisée (Docker, Terraform), garantissant la portabilité, la scalabilité et la cohérence des environnements (recette, préproduction, production).
sécurité et gouvernance des accès
L’ensemble repose sur les services managés Azure, avec une séparation stricte des environnements et un suivi complet des journaux d’accès.
Les endpoints critiques ne sont jamais exposés directement à Internet : ils transitent par des private endpoints, ajoutant une couche de sécurité réseau supplémentaire.
L’évolution vers un déploiement Blue-Green renforcera encore la fiabilité et la sécurité des mises en production, notamment lors de l’ouverture de flux contrôlés entre Azure et les environnements AWS du groupe.
Cette approche garantit un haut niveau de confidentialité, de traçabilité et de résilience, essentiels dans un contexte juridique particulièrement sensible.
gestion des tools & intégration agentique
Au cœur de l’assistant, les tools jouent un rôle central : ce sont des connecteurs intelligents qui permettent au modèle d’IA d’interagir avec des systèmes externes ou des sources de données internes.
Concrètement, un tool agit comme une extension du raisonnement du modèle, lui donnant la capacité non seulement de répondre à une question, mais aussi d’exécuter une action réelle : interroger une API, générer un document, récupérer des informations juridiques, ou encore orchestrer un flux de travail métier.
Les tools sont aujourd’hui définis manuellement via Swagger, permettant la construction dynamique des requêtes API, la détection d’intentions (résumer, rédiger, exécuter, questionner) et l’exécution paramétrée selon le contexte utilisateur.
Les data scientists du client ont appliqué un tuning avancé en ajustant les prompts et les appels API selon l’intention des utilisateurs, garantissant que l’assistant interprète correctement les demandes et réalise les actions attendues. Ces ajustements, bien que techniques, sont au cœur de la performance de l’assistant : ils permettent de combiner pertinence des réponses et efficacité opérationnelle.
Une première phase R&D a été menée sur Semantic Kernel et Autogen pour explorer les capacités d’orchestration automatique et la planification de tâches complexes.
Cette expérimentation a ensuite conduit à une migration vers Google ADK, offrant une architecture agentique plus flexible et préparant la coordination multi-agents via MCP Tool Server — une brique essentielle pour intégrer de nouveaux cas d’usage tels que Microsoft Graph ou des services internes métier.
Cette évolution vers l’architecture agentique permettra aux équipes de coordonner automatiquement plusieurs agents spécialisés, de centraliser les informations et de réduire le temps consacré à des tâches répétitives ou complexes, tout en maintenant un haut niveau de sécurité et de traçabilité.
L’intégration de nouveaux use cases facilitera l’accès à des sources de données internes et externes, améliorera la qualité des analyses et accélérera la production de livrables fiables.
La diffusion auprès d’autres équipes démontre que l’architecture modulaire et agentique peut être répliquée facilement, offrant scalabilité et flexibilité adaptée à d’autres métiers et contextes organisationnels.
adoption par d’autres équipes
La solution a été mise en production et adoptée par plusieurs équipes internationales, démontrant sa modularité et son adaptabilité.
leçons & perspectives
Sur le plan technique, le tuning des modèles a été central, impliquant l’ajustement des prompts, la description fine des API et la détection d’intentions pour assurer la pertinence des réponses.
La gestion des coûts de tokens et le contrôle d’accès complexe ont également été des points clés.
Du côté organisationnel, la conduite du changement et l’appropriation métier ont été essentielles pour favoriser l’adoption.
La R&D continue dans un bac à sable permet de tester MCP Tool Server, Agent2Agent et de nouveaux outils ou use cases.
À plus long terme, l’extension à d’autres métiers, l’intégration avec le SI (ERP, CRM), le suivi éthique et la conformité RGPD sont envisagés.
synthèse
Le projet illustre l’importance de centraliser, sécuriser et accélérer les pratiques métiers. La réponse apportée, via l’IA conversationnelle sur une architecture modulaire et cloisonnée, évolue vers un modèle agentique, permettant la coordination de multiples agents spécialisés et l’intégration de nouveaux use cases.
Les résultats se traduisent par une productivité accrue, une adoption réussie et une diffusion progressive de la culture IA.
bénéfices & résultats
- L’implémentation de l’assistant IA a permis un gain de temps significatif sur des tâches répétitives et chronophages.
- Les ressources humaines peuvent ainsi se concentrer sur des tâches à forte valeur ajoutée.
- La centralisation des outils et des informations juridiques a amélioré la fluidité du travail et réduit la charge mentale et cognitive des utilisateurs.
- Enfin, la solution a favorisé la diffusion d’une culture IA au sein des équipes et accéléré l’innovation.
chiffres clés
Gain de temps moyen
Valeur économique
Objectif d’adoption
10 % à la fin de la première année