IA : la dimension organisationnelle du risque
- il y a 2 jours
- 3 min de lecture

Les entreprises ouvrent progressivement leurs systèmes d’information à l’intelligence artificielle générative. Cependant, si les collaborateurs peuvent désormais dialoguer avec des assistants capables de produire des textes, résumer des documents ou suggérer des analyses, ils n’ont, dans la large majorité des cas, aucun accès à des systèmes agentiques capables d’agir de manière autonome. Derrière cette interdiction se dessinent des enjeux de sécurité, de gouvernance et de responsabilité qui façonnent déjà les usages et la perception de l’IA dans les organisations.
Depuis deux-trois ans, les directions informatiques autorisent l’usage d’assistants conversationnels capables de rédiger un compte rendu, de synthétiser un appel d’offres ou de proposer une réponse à un client. Quelques soient les sources d’information consultées, on considère aujourd’hui que plus de 50 % des organisations utilisent régulièrement l’IA générative dans une ou plusieurs fonctions métier.
Heureusement, cette adoption reste (théoriquement) étroitement encadrée. En effet, dans la majorité des environnements professionnels, l’IA peut bel et bien produire des recommandations mais elle ne peut pas les exécuter.
Il y a plusieurs mois, une autre forme d’intelligences artificielles a lentement commencé à émerger : les systèmes dits « agentiques ». Contrairement aux assistants conversationnels, ces agents ne se contentent pas de générer du texte. Ils peuvent accéder à des bases de données internes, interagir avec des API métiers, déclencher des actions dans des logiciels de gestion ou orchestrer des processus multi-étapes sans intervention humaine directe. Autrement dit, ils ne suggèrent plus, ils agissent. C’est précisément cette capacité qui inquiète les entreprises. Comment déléguer à la machine, en toute confiance, de tels processus. Aujourd’hui cela semble impossible ! Comme le précise le National Institute of Standards and Technology (NIST), les modèles de langage intégrés dans des systèmes autonomes peuvent être vulnérables à des attaques de type prompt injection. Ces attaques visent à manipuler les instructions données à l’IA afin de détourner son comportement ou d’obtenir un accès non autorisé à des données sensibles.
L’OWASP classe d’ailleurs ces vulnérabilités parmi les principaux risques associés aux applications reposant sur des grands modèles de langage (https://owasp.org/www-project-top-10-for-large-language-model-applications/). Dans notre monde, où chaque action informatique doit être traçable, auditable et juridiquement attribuable, déléguer des droits d’exécution à un agent autonome revient à introduire une entité logicielle dont les décisions peuvent être difficiles (voire impossible) à expliquer a posteriori.
Ce problème n’est pas théorique. La large majorité des entreprises considère que la gestion des identités non humaines (IA) constitue plus que jamais un défi majeur (et un risque) pour la sécurité informatique. Les agents autonomes deviennent en effet des acteurs à part entière du système d’information, capables d’agir en dehors des schémas classiques d’authentification ou de supervision humaine. Face à ces incertitudes, la plupart des entreprises choisit de restreindre les droits accordés à l’intelligence artificielle pour limiter les risques.
Cette prudence n’est pas sans conséquence.
Privée de capacité d’action, l’IA reste cantonnée à un rôle d’assistance. Elle rédige, synthétise ou suggère, sans intervenir directement dans l’exécution des tâches ou l’automatisation des processus métiers. Sans accès à ces possibilités, l’intelligence artificielle demeure un outil de productivité individuelle plutôt qu’un levier de transformation organisationnelle.
Logiquement, cette limitation influe également sur la perception interne de l’IA. De nombreux dirigeants estiment aujourd’hui que l’intelligence artificielle ne produit qu’un retour sur investissement limité dans leur organisation. L’IA apparaît alors comme un moteur de recherche amélioré ou un générateur de texte sophistiqué, plutôt que comme une infrastructure capable de transformer les opérations.
Le refus d’ouvrir l’accès aux agents ne traduit pas, à mon sens, un rejet de la technologie. Il reflète l’absence, à ce stade, de cadres de gouvernance et de responsabilité adaptés à des systèmes capables d’agir de manière partiellement ou totalement autonome. En maintenant l’intelligence artificielle au seuil de l’action, les entreprises prennent le risque d’en limiter durablement l’impact.
Pour aller plus loin, contactez omestra !


