Dans une table ronde animée par PwC lors de VivaTech 2025, des leaders technologiques issus de grands groupes et du secteur public ont dressé un constat unanime : l’agentification de l’IA, bien que récente, est déjà opérationnelle.
Depuis leur démocratisation au grand public, les LLMs (Large Language Models) sont connus comme des outils de génération de texte ou de code. Au-delà, au sein même des workflows métiers, ils deviennent des agents capables de réaliser des tâches de bout en bout.
Steve Jarrett, Chief AI Officer chez Orange décrit un modèle simple mais puissant : « Un service appelle un LLM, lui donne un objectif et le laisse utiliser des outils pour le remplir. » Parmi les exemples possibles : la navigation web, l’interaction avec des bases de données, ou l’activation de modèles complémentaires.
Mais il prévient : « Il faut surveiller les actions de l’agent, évaluer les résultats, structurer ses données. Ce n’est pas encore plug-and-play. » Pour autant, il affirme que, dans un horizon de 3 à 5 ans, ces agents transformeront à leur tour les métiers, les outils et les organisations.
Ce futur, Hélène Brisset, chez Île-de-France Mobilité, le vit déjà au quotidien. Au sein d’une des plus grandes autorités de transport au monde, plusieurs agents IA sont déjà opérationnels, principalement pour faciliter le traitement du service client :
« L’intégration de l’intelligence artificielle ne doit pas être motivée par un effet de mode, mais par sa réelle utilité. »
Le terme « multi-agent » fait rêver. Mais que signifie-t-il en pratique ? Il ne s’agit pas d’une armée d’IA discutant entre elles dans un grand nuage algorithmique. Gabriel Hubert, Co-founder et CEO de Dust, clarifie les choses : « Oublions la science-fiction. En réalité, les usages multi-agents ressemblent à un modèle en hub & spoke. Autrement dit, un événement déclenche plusieurs agents spécialisés, chacun avec un objectif bien défini.»
Exemple ? Un appel client est enregistré > Un agent le transcrit > Un autre extrait les données pertinentes pour le CRM > Un troisième vérifie la conformité des engagements. > Un quatrième met à jour une documentation commerciale. Chacun agit de manière autonome, sans devoir passer par un pipeline linéaire.
Cette architecture distribuée est déjà en production dans des PME performantes, parfois avec moins de 100 salariés, mais générant des millions d’euros de chiffre d’affaires.
L’idée d’une coopération entre agents IA n’est plus une vue de l’esprit. Elle dessine déjà les contours d’un nouveau modèle logiciel : un modèle décentralisé, flexible, personnalisable, qui remet en question la logique de l'application unique, centralisée et verrouillée.
Ce modèle implique un changement profond dans la conception même du système d'information. Là où l'on raisonnait en matière de suites logicielles ou de plateformes intégrées, on pense désormais en « réseaux d'agents ». Chaque agent devient une unité fonctionnelle, interopérable, rattachée à une finalité métier. Ce paradigme renverse l’ordre habituel de conception : l’expérience utilisateur devient le point d’entrée, et l’orchestration se fait par intention, non par interface.
Mais il faut aller plus loin que la seule logique de modularité technique. Ce nouveau modèle est aussi un changement culturel. Le multi-agent, tel qu’il est déployé chez certains clients de Dust, déploie une nouvelle manière de penser les responsabilités et l’organisation du travail. Les agents deviennent les auxiliaires invisibles de toutes les fonctions de l’entreprise, avec des spécialisations propres à chaque métier.
Ce modèle distribue également le pouvoir de création. En donnant aux collaborateurs les moyens de créer ou d’adapter leurs propres agents, comme l’illustre l’expérience d’Orange, il est possible de favoriser un écosystème interne où l’innovation ne vient plus du haut, mais du terrain. De telle manière que l’agentification devient une stratégie d’écoute organisationnelle.
Fini le mythe du « super agent » qui sait tout faire ? La réalité du terrain, c’est avant tout une boîte à outils spécialisée et pas une surpopulation d’agents. Chaque agent doit avoir une mission, un objectif défini, un modèle associé et des données pertinentes. Un usage par conséquent raisonné comme l’explique Steve Jarrett : « Il ne faut pas utiliser un LLM comme une massue pour planter un clou. »
Cette démarche répond aussi à un enjeu de sobriété. Certains modèles sont trop lourds énergétiquement pour de simples tâches de classification ou de reformulation. Pourquoi ne pas exécuter ces agents localement, sur un poste ou un smartphone ?
C’est le pari de Dust, qui permet de basculer dynamiquement entre plusieurs modèles (OpenAI, Mistral, open source…), avec une priorité donnée à la continuité d’activité, à la sécurité des données et à la performance métier.
Mais tout cela n’a pas de sens si les équipes ne s’approprient pas les outils. Chez Orange, un outil interne d’IA générative a été mis à disposition. Résultat ? 73 000 utilisateurs actifs et plus de 14 000 assistants créés par les salariés eux-mêmes.
« Les collaborateurs qui créent des agents sont souvent les plus performants. Ce sont eux que nous souhaitons retenir », explique Gabriel Hubert.
Cette autonomisation est par conséquent doublement vertueuse : elle augmente l’efficacité et révèle les talents : « Elle crée de l’engagement, de l’appropriation, de la créativité ».
Si vous souhaitez embarquer vos équipes dans cette dynamique, il n'est pas nécessaire de démarrer par un projet d'envergure. Bien au contraire. La transformation par les agents IA commence souvent à un « petit » niveau, de manière ciblée, pragmatique.
Commencez par un cas d’usage. Expérimentez. Impliquez vos équipes. Et entrez dans l’ère des agents IA.
Associée responsable de l'innovation et de l'impact, PwC France et Maghreb