Shadow AI : le plus grand risque IA pour les entreprises — Et la plupart ignorent qu'elles en sont atteintes
90 % des entreprises s'en déclarent préoccupées. 80 % ont déjà connu des incidents de données liés à l'IA. Et les agents en production n'ont peut-être jamais été validés par les équipes IT. Voici ce qui se passe — et ce qu'il faut faire avant que cela ne devienne votre crise de conformité.
Ce que le Shadow AI désigne réellement — et pourquoi ce n'est pas du Shadow IT
La terminologie est constamment confondue, et cette confusion est dangereuse.
Le Shadow IT désigne les logiciels non autorisés — les applications SaaS auxquelles les employés souscrivent sans validation IT, le compte Dropbox personnel utilisé pour partager des fichiers professionnels, les extensions de navigateur non auditées installées sur les ordinateurs portables de l'entreprise. Le Shadow IT est un problème réel, mais il présente une limite fondamentale : le logiciel non approuvé nécessite toujours un humain pour l'exploiter. Les données quittent l'entreprise quand une personne décide de les déplacer.
Le Shadow AI est catégoriquement différent. Le Shadow AI désigne les agents d'IA non autorisés, les LLM et les workflows IA opérant en dehors de toute gouvernance IT — et contrairement au Shadow IT, ces systèmes peuvent agir de manière autonome. Ils peuvent lire vos données, les copier, les transmettre et exécuter des actions sur les systèmes sans qu'un humain ne dirige explicitement chaque étape.
Cette distinction est cruciale car elle modifie entièrement le profil de risque. Un employé utilisant un outil SaaS non approuvé pour stocker un fichier représente un risque d'exposition des données. L'agent IA d'un employé qui a été entraîné sur votre documentation interne, dispose d'un accès API à votre CRM et traite des données clients via une API LLM personnelle — c'est un acteur autonome opérant sur votre infrastructure sans votre connaissance ni votre consentement.
Cette catégorie a évolué plus rapidement que ce que la plupart des équipes de sécurité des grandes entreprises n'ont enregistré. En 2024, le Shadow AI désignait principalement les employés utilisant ChatGPT pour rédiger des documents. En 2025 et 2026, cela signifie de plus en plus que des employés déploient des agents IA — des workflows autonomes capables de planifier, d'utiliser des outils, d'exécuter des processus multi-étapes et d'enchaîner des actions sur les systèmes d'entreprise. Un employé qui configure un agent IA pour gérer ses approbations d'achat, son routage de support client ou la génération de rapports ignore probablement que cet agent opère avec accès à des systèmes qui n'ont jamais été autorisés à cette fin.
Les employés n'agissent pas nécessairement de manière malveillante. La plupart des déploiements de Shadow AI naissent d'une motivation sincère de productivité — quelqu'un a trouvé un outil qui lui fait gagner deux heures par jour et l'a configuré sans réfléchir aux implications en matière d'accès aux données. Le problème, c'est que ces implications sont bien réelles, la prise de conscience est faible, et les agents continuent de fonctionner que quelqu'un ait réfléchi aux risques ou non.
Les chiffres — À quel point la situation est-elle réellement grave ?
Les données provenant des responsables IT des grandes entreprises sont cohérentes et alarmantes.
L'étude IT 2025 de Komprise — réalisée auprès de 200 directeurs et cadres IT américains dans des organisations de plus de 1 000 employés — révèle que 90 % des entreprises s'inquiètent du Shadow AI du point de vue de la confidentialité et de la sécurité. Ce n'est pas une préoccupation marginale de la part d'équipes IT anxieuses. C'est une reconnaissance quasi universelle du risque.
Le chiffre le plus frappant : près de 80 % de ces mêmes entreprises déclarent avoir déjà connu des incidents de données négatifs liés à l'IA. Non pas une hypothèse. Non pas un effleurement. Un incident réel impliquant des outils IA non autorisés opérant sur des données d'entreprise.
Parmi ces entreprises, 13 % ont subi des dommages financiers, clients ou réputationnels — des préjudices mesurables résultant d'un incident IA dont la direction n'a peut-être jamais approuvé l'existence, voire n'en a jamais eu connaissance. Ce chiffre est probablement sous-estimé, car de nombreuses entreprises ne disposent pas de la capacité de détection nécessaire pour savoir quand un incident lié à l'IA s'est produit.
Les recherches de Gartner apportent la dimension prospective. Leurs analystes prévoient qu'en 2030, environ 40 % des entreprises seront confrontées à des incidents de conformité liés à l'IA — et le facteur principal cité est la fuite de données via des canaux de Shadow AI, y compris ce que Gartner décrit comme des « humanizers fantômes », des outils que les employés utilisent pour traiter des données d'entreprise via des LLM personnels de manière à faire sortir ces données du contrôle de l'entreprise.
Des exemples concrets de ce à quoi cela ressemble en pratique : des employés routant des données d'entreprise via des plateformes de messagerie comme Telegram vers des API LLM personnelles. Des agents IA non approuvés gère des workflows d'approvisionnement avec accès aux systèmes de gestion des fournisseurs. Des équipes commerciales utilisant des outils IA pour rédiger des communications clients qui sont stockées dans le système du fournisseur plutôt que dans celui de l'entreprise. Le point commun : personne côté IT n'a approuvé ces outils, et personne côté IT ne sait que les données ont quitté le bâtiment.
Les implications en matière de conformité se cumulent lorsque l'on ajoute des données réglementées. Les organisations de santé traitant des PHI via des outils IA non approuvés peuvent violer les exigences HIPAA. Les entreprises de services financiers routant des données clients via des API IA personnelles peuvent enfreindre les exigences de résidence et de traitement des données. Les employés qui font cela cherchent rarement à violer les cadres de conformité — ils cherchent à accomplir leur travail plus rapidement. Mais l'exposition en matière de conformité est réelle, quelle que soit l'intention.
Pourquoi la gouvernance traditionnelle échoue ici
La plupart des entreprises disposent déjà d'une forme de gouvernance de l'IA en place. Elle est généralement conçue pour le mauvais modèle de menace.
Le cadre de gouvernance IA typique suppose un outil approuvé — quelque chose que l'IT a évalué, validé et déployé. Il précise quels modèles d'IA l'organisation peut utiliser, sur quelles données ils peuvent être entraînés et quels journaux d'audit doivent être conservés. Cette gouvernance est nécessaire. C'est aussi une gouvernance qui n'a aucun mécanisme d'application pour le problème du Shadow AI, parce que le Shadow AI désigne précisément des outils IA qui n'ont jamais été approuvés, jamais évalués, et dont on n'a jamais eu connaissance.
L'écart entre la vitesse d'adoption de l'IA par les employés et la vitesse d'approbation par l'IT est structurel. Les employés peuvent configurer un agent IA en quelques minutes, le connecter à leur messagerie professionnelle et le faire traiter leur flux de travail avant même que l'IT n'ait reçu la demande d'approbation. Les outils pour faire cela sont gratuits, grand public et ne nécessitent aucune connaissance technique. Le processus d'approbation pour un nouveau logiciel d'entreprise prend des semaines, voire des mois. Les employés qui veulent travailler plus vite ne vont pas attendre que l'IT завершит une analyse de sécurité.
L'amplification par l'IA agentique aggrave considérablement ce problème. La gouvernance IA traditionnelle a été conçue pour les interfaces de chat et la génération de documents — l'IA qui produit des résultats qu'un humain examine avant utilisation. Les agents IA sont différents : ils planifient, utilisent des outils, exécutent des workflows multi-étapes de manière autonome. Un employé qui configure un agent IA pour gérer son flux de travail d'onboarding client a donné à cet agent la capacité de lire des données clients, de mettre à jour des enregistrements CRM, d'envoyer des e-mails et de prendre des décisions — le tout sans qu'un humain n'examine chaque étape. La vélocité et l'autonomie des agents IA sont fondamentalement incompatibles avec des processus de gouvernance conçus pour des outils d'IA où l'humain reste dans la boucle.
La pile de sécurité présente des angles morts ici. L'infrastructure de sécurité d'entreprise — EDR, SASE, pare-feux, gestion des identités — génère des signaux significatifs liés à l'utilisation d'outils IA. Les utilisateurs accèdent à des services IA depuis les réseaux d'entreprise. Les données transitent vers les API de fournisseurs de services IA. Les identifiants de services IA sont utilisés sur les endpoints. Mais la pile de sécurité n'a pas été conçue pour corréler ces signaux en une image cohérente de l'exposition au Shadow AI, et la plupart des équipes de sécurité ne disposent pas des outils pour agir sur les signaux qu'elles génèrent déjà.
L'écart de responsabilité est peut-être l'aspect le plus sous-résolu. Lorsqu'un incident de Shadow AI cause un préjudice — une violation de données, une infraction de conformité, un enregistrement client envoyé au mauvais endroit — qui en est responsable ? L'employé qui a configuré l'agent ? Le manager de cet employé ? L'IT, pour ne pas avoir eu de gouvernance qui aurait permis de le détecter ? Le RSSI, pour ne pas avoir eu de capacité de détection ? Les cadres de gouvernance d'entreprise actuels n'ont pas de réponses claires à ces questions. Le défaut pratique tends à être une responsabilité diffuse, ce qui signifie qu'aucune responsabilité spécifique n'incombe à personne — ce qui signifie que le problème n'est pas résolu.
Le problème du Shadow AI agentique s'aggrave
La première vague de Shadow AI concernait principalement les employés utilisant des interfaces LLM grand public pour rédiger des documents, répondre à des questions et synthétiser des informations. Préoccupant, mais gérable, car un humain était toujours dans la boucle.
La deuxième vague — celle qui constitue la véritable crise — concerne les agents IA opérant de manière autonome dans les flux de travail d'entreprise. C'est ici que le risque passe de « confidentialité des données » à « exposition opérationnelle », et où l'écart de gouvernance devient critique.
L'infrastructure de déploiement d'agents IA personnels est devenue triviale. Les serveurs MCP (Model Context Protocol), qui permettent aux agents IA de se connecter à des outils et sources de données externes, sont configurés par des employés non techniques sans implication IT. Les clés API des services IA sont créées sur des comptes personnels. Les employés construisent des agents qui s'exécutent sur une infrastructure personnelle, utilisent des abonnements personnels à des services IA, avec accès aux systèmes corporativos authentifié via des identifiants que l'entreprise ne connaît pas.
Il en résulte une population croissante d'agents IA opérant en dehors de la visibilité et du contrôle de l'entreprise — non pas parce que l'entreprise n'a pas réussi à construire une gouvernance, mais parce que les agents ont été configurés par des personnes qui ignoraient avoir besoin d'une approbation de gouvernance. Un employé qui a construit un agent IA pour gérer le routage des tickets IT de son équipe a, sans le savoir, créé un système autonome avec accès aux systèmes IT internes, aux identifiants utilisateurs et aux données organisationnelles. L'agent fonctionne le week-end, traite les tickets et escalade ce qu'il ne peut pas gérer. Personne côté IT ne sait qu'il existe.
L'exposition opérationnelle s'aggrave avec le temps. Plus un agent IA non gouverné fonctionne longtemps, plus il s'intègre dans les processus métier. D'autres employés commencent à dépendre de lui. Des dépendances se forment. Quand quelque chose tourne mal — l'agent commet une erreur, le service personnel sur lequel il est construit modifie ses conditions API, l'abonnement de l'employé expire — la perturbation est réelle et l'écart de gouvernance devient visible sous la contrainte.
Les équipes de sécurité commencent à reconnaître cette dynamique. ArmorCode et des plateformes similaires de gouvernance IA ont commencé à qualifier ce problème de défi de « gestion de l'exposition IA » : les signaux de risque IA existent à travers votre pile de sécurité actuelle, mais aucune équipe ne les possède ni ne dispose des outils pour agir sur eux. L'équipe de sécurité voit le trafic réseau vers les services IA. L'équipe IT ne sait pas quels agents s'exécutent sur quels endpoints. L'équipe de gouvernance des données ne sait pas quelles données ont été traitées par quels systèmes IA. La responsabilité du risque IA est distribuée entre tous et concentrée chez personne.
Ce qui fonctionne réellement — Un cadre de gouvernance
Les entreprises qui progressent véritablement sur la gouvernance du Shadow AI ne le considèrent pas comme un problème technologique. Elles le considèrent comme un problème de main-d'œuvre et de politique, avec la technologie comme facteur activateur. Cinq composantes apparaissent systématiquement dans les cadres efficaces.
1. Programmes d'amnistie IA — Découvrez ce que vous avez déjà
L'étape la plus immédiatement applicable est de créer un mécanisme de divulgation sécurisé pour les employés qui utilisent déjà des outils IA non approuvés. Un programme d'amnistie IA s'inspire de la logique des cadres de divulgation volontaire : les employés qui déclarent leur utilisation d'outils IA non autorisés dans un délai défini reçoivent une assistance pour basculer vers des alternatives approuvées, sans pénalité pour la divulgation initiale.
La logique est pragmatique. De nombreux employés utilisant des outils de Shadow AI le font parce qu'ils ont trouvé quelque chose qui les aide vraiment à mieux faire leur travail, et non parce qu'ils tentent de contourner la gouvernance d'entreprise. Si l'organisation répond à la divulgation en punissant les employés, la divulgation s'arrête et les outils continuent de fonctionner. Si l'organisation répond en proposant des alternatives approuvées et de l'aide pour la transition, la visibilité obtenue vaut plus que l'échec de gouvernance qui l'a précédée.
2. Inventorier tout — Gestion continue de l'exposition IA
La découverte ne peut pas être un événement unique. Le paysage des outils IA évolue trop rapidement, et les agents déployés par les employés apparaissent continuellement. Une gouvernance efficace du Shadow AI nécessite un inventaire continu : chaque outil IA, modèle, clé API, serveur MCP et workflow agentique ayant accès aux données ou systèmes de l'entreprise.
C'est techniquement nontrivial, mais pas impossible. L'analyse du trafic réseau peut identifier les appels API de services IA. La détection sur endpoints peut signaler les processus d'agents IA s'exécutant sur le matériel corporate. La gouvernance des identités peut mettre en lumière les identifiants API émis en dehors des canaux de provisionnement normaux. La clé est de corréler ces signaux en un inventaire des actifs IA sur lequel l'équipe de sécurité peut réellement agir.
3. Gouverner les agents, pas seulement les modèles
Les cadres de gouvernance IA construits autour de « quels modèles d'IA peuvent être utilisés » passent à côté du problème réel, qui est « quels agents IA peuvent opérer sur nos systèmes et avec quel accès ». La question de gouvernance doit passer de l'approbation au niveau du modèle à l'autorisation au niveau de l'agent.
Considérer les agents IA comme faisant partie de la main-d'œuvre est l'analogie utile. Les agents ont besoin de rôles définis, de permissions d'accès, de chemins d'escalade et de journaux d'audit — le même cadre de gouvernance que vous appliqueriez à un membre de la main-d'œuvre humaine ayant un accès équivalent. Un agent qui traite des données clients a besoin des mêmes contrôles d'accès et de la même surveillance qu'un employé humain accomplissant le même travail.
4. Intégrer avec la pile de sécurité existante
La gouvernance de l'IA qui opère en silo par rapport à l'infrastructure de sécurité existante est une gouvernance qui ne sera pas appliquée. Les signaux du Shadow AI sont déjà présents dans votre pile de sécurité — ils ne sont simplement pas corrélés ni actionnés.
Les données EDR peuvent signaler les processus d'agents IA s'exécutant sur les endpoints. L'infrastructure SASE peut identifier l'accès à des services IA non approuvés. Les systèmes de gestion des identités peuvent mettre en lumière les identifiants API émis en dehors du provisionnement normal. Lorsque ces signaux alimentent une plateforme de gouvernance IA capable de les corréler et d'agir — plutôt que de rester dans des outils séparés — l'organisation gagne une visibilité qu'elle n'avait pas auparavant.
5. Établir une politique d'utilisation acceptable de l'IA — et l'appliquer
La plupart des entreprises ont une politique d'utilisation acceptable de l'IA. La plupart d'entre elles sont rédigées comme des documents de politique que les employés sont tenus d'accepter, et non comme des contrôles techniques qui empêchent les violations de politique. Une politique qui dit « n'envoyez pas de données clients vers des services IA non approuvés » est nécessaire mais pas suffisante s'il n'existe aucun mécanisme technique pour détecter ou empêcher ces données de partir.
Une gouvernance efficace de l'utilisation acceptable de l'IA nécessite les deux : une politique claire qui établit les attentes, et des contrôles techniques qui les appliquent. Des proxies web qui bloquent les domaines de services IA sur les appareils gérés. Des règles de prévention de perte de données (DLP) qui signalent les données sensibles transitant vers les endpoints de services IA. Des contrôles de passerelle API qui exigent l'accès à des services IA approuvés. La politique établit l'attente. Les contrôles techniques préviennent la violation.
Les Principes d'IA responsable d'EY fournissent un cadre utile pour la couche politique : les systèmes d'IA doivent être transparents sur leur fonctionnement, responsables devant des propriétaires définis, et soumis aux mêmes principes de gestion des risques que tout autre système d'entreprise. Ces principes s'appliquent à la gouvernance du Shadow AI que les outils aient été approuvés par l'IT ou déployés par les employés.
Synthèse de recherche par Agencie. Sources : Komprise 2025 IT Survey, Gartner (prévisions gouvernance IA jusqu'en 2030), EY Responsible AI Principles. Toutes les sources citées sont des publications 2025-2026.