Retour au blog
AI Automation2026-04-088 min read

Sécuriser l'entreprise agentique — Analyse comportementale des agents, OWASP Top 10 et menaces internes dans l'IA

Avril 2026 — Exabeam : les entreprises peinent à cartographier le comportement normal des agents IA, à investiguer les cas d'usage potentiellement abusifs et à détecter les nouvelles menaces d'initié liées aux agents.

ChannelInsider : Exabeam a étendu Agent Behavior Analytics à ChatGPT, Copilot et Gemini, offrant aux entreprises une visibilité sur l'activité des agents IA sur l'ensemble des principales plateformes.

Business Wire : Exabeam surveille le comportement des agents en regard de l'OWASP Top 10 for Agentic AI — manipulation de prompts, privilèges excessifs, utilisation non sécurisée d'outils et mésusage du modèle.


Pourquoi les agents IA créent une nouvelle surface d'attaque

Les agents IA diffèrent des utilisateurs humains de manière significative pour la sécurité.

Vitesse machine : un agent IA peut prendre des milliers de décisions par jour. Un humain en prend quelques dizaines. Le volume et la vélocité des actions des agents créent une surface d'attaque que les outils de sécurité centrés sur l'humain ne sont pas conçus pour surveiller.

Prolifération des identifiants : un utilisateur autorise un agent. L'agent agit ensuite avec l'ensemble des droits d'accès de cet utilisateur. Lorsque cet utilisateur délègue à un agent, l'agent hérite de toutes les permissions sans vérification supplémentaire.

Manipulation de prompts : un agent IA peut être manipulé via des entrées d'une manière qui ne ressemble pas à une compromission traditionnelle des identifiants. Un attaquant intègre des instructions malveillantes dans les données que l'agent traite. L'agent suit des instructions qui semblent légitimes. Le système de sécurité voit des identifiants valides et des instructions plausibles. Il ne voit pas l'attaque.

Autonomie : l'agent agit sans que l'utilisateur surveille chaque action. Un utilisateur humain qui examine sa propre activité peut remarquer des anomalies. Un agent fonctionnant en autonomie pendant des heures entre deux vérifications peut causer des dommages significatifs avant que quiconque ne s'en rende compte.

La menace d'initié agentique est là où cela devient le plus grave. La menace d'initié traditionnelle est un employé humain qui abuse de son accès. La menace d'initié agentique est un agent IA qui abuse de son accès — soit parce qu'il a été manipulé, soit parce qu'on lui a accordé des privilèges excessifs dès le départ. Exabeam : les agents IA repoussent ces limites encore plus loin. L'agent dispose de privilèges réels et peut exfiltrer des données, escalader ses accès, ou effectuer des actions que l'utilisateur humain n'aurait pas autorisées.


L'OWASP Agentic Top 10 — Le cadre de référence des menaces

Business Wire : Exabeam surveille le comportement des agents en regard de l'OWASP Top 10 for Agentic AI. Ce cadre提供了一个结构化的威胁分类,安全团队可以据此进行审计。

Les quatre catégories de menaces les plus pertinentes pour les déploiements en entreprise :

Manipulation de prompts : un attaquant intègre des instructions malveillantes dans les données que l'agent traite — un email, un document, une entrée de base de données. L'agent interprète ces instructions comme des commandes légitimes. Le système voit des identifiants valides et des instructions plausibles. L'attaque réussit parce que l'agent a été manipulé, et non parce que des identifiants ont été volés.

Privilèges excessifs : l'agent s'est vu accorder plus d'accès que nécessaire. L'utilisation abusive de cet accès passe inaperçue car l'agent opère dans le cadre de ses permissions accordées. Le système de sécurité voit un accès autorisé. Il ne voit pas que cet accès était innecessaire et donc risqué.

Utilisation non sécurisée d'outils : l'agent appelle des outils d'une manière qui expose des données ou crée des vulnérabilités. L'agent a une fonction légitime. Il utilise cette fonction d'une manière qui crée une faille de sécurité. L'appel d'outil semble normal. La conséquence ne l'est pas.

Mésusage du modèle : l'agent est utilisé à des fins pour lesquelles il n'a pas été conçu. C'est à la fois une menace externe — un attaquant utilisant l'agent à des fins non prévues — et un échec de gouvernance interne.

Ce à quoi chaque menace ressemble en pratique : une injection de prompts pourrait consister en un agent lisant un email empoisonné et « hallucinant » qu'il doit transmettre tous les enregistrements clients à une adresse externe. Une escalade de privilèges pourrait consister en un agent ayant un accès en lecture au CRM utilisant cet accès pour exporter des données de contact qu'il n'a jamais été autorisé à exporter. Une exfiltration de données pourrait consister en un agent ayant accès aux emails envoyant des pièces jointes sensibles à un destinataire non autorisé. Une utilisation abusive d'outils pourrait consister en la capacité d'appel d'outils de l'agent exploitée pour exécuter du code arbitraire.


Ce que fait réellement Agent Behavior Analytics

Exabeam : Agent Behavior Analytics applique la modélisation comportementale aux utilisateurs humains et aux agents IA agissant en leur nom. De la même manière que UEBA a établi ce à quoi ressemble le comportement normal pour les utilisateurs humains, ABA établit ce à quoi ressemble le comportement normal pour les agents IA. Les déviations par rapport au comportement normal déclenchent des alertes, que l'agent dispose ou non d'identifiants valides.

Ce qu'ABA détecte que les outils traditionnels ne détectent pas : des modèles d'accès aux données anormaux lorsqu'un agent accède à des données auxquelles il n'accède pas normalement, des volumes d'appels API inhabituels lorsqu'un agent effectue soudainement des milliers d'appels alors qu'il en effectue normalement des dizaines, des actions hors personnage lorsqu'un agent tente des opérations qu'il n'a jamais tentées auparavant, et des mouvements de données inter-locataires lorsqu'un agent déplace des données entre des espaces de stockage qu'il ne devrait pas relier.

L'approche par analytique de session : Exabeam détecte les comportements risqués des agents IA via l'analytique basée sur les sessions et les informations sur les activités de première fois. ABA suit la session complète d'un agent — ce qu'il a fait, dans quel ordre, avec quel contexte. Les activités de première fois sont signalées pour révision. Un agent qui accède soudainement à une nouvelle source de données pour la première fois déclenche une alerte.

Le problème de la cartographie est la partie la plus difficile. ChannelInsider : les entreprises peinent à établir le comportement normal des agents IA. ABA résout ceci : vous ne pouvez pas détecter les anomalies sans savoir à quoi ressemble le comportement normal. Établir la cartographie nécessite d'observer le comportement des agents au fil du temps, ce qui signifie que le déploiement d'ABA n'est pas instantané. Une période d'apprentissage est nécessaire avant qu'il ne devienne effectif.


Pourquoi ChatGPT, Copilot et Gemini sont le point de départ

ChannelInsider : Exabeam a étendu ABA à ChatGPT, Copilot et Gemini, permettant la visibilité et la détection d'anomalies pour l'activité des agents IA d'entreprise sur les trois principales plateformes.

La réalité de l'IA en entreprise : la plupart des entreprises ont déployé ou déploient ChatGPT via OpenAI, Microsoft Copilot dans la suite Microsoft 365, et Google Gemini dans Google Workspace. Chacune de ces plateformes a des agents agissant au nom des utilisateurs dans l'entreprise. Chacune génère des journaux d'activité que les outils de sécurité traditionnels ne comprennent pas.

Ce que couvre l'extension d'Exabeam : visibilité, détection d'anomalies et sécurité pour l'activité des agents IA d'entreprise sur les trois plateformes. Les entreprises peuvent désormais avoir une visibilité comportementale unifiée quel que soit le plateforme d'IA sur laquelle leurs agents s'exécutent.

Pourquoi cela compte pour les équipes de sécurité : sans couverture ABA sur ces plateformes, les équipes de sécurité n'ont aucune visibilité sur ce que font les agents IA dans leur environnement. Avec, les équipes de sécurité peuvent détecter quand un agent IA — quel que soit le plateforme — commence à se comporter de manière anormale.


La stack de sécurité des agents IA — Ce dont les entreprises ont besoin

Un cadre en cinq couches pour la sécurité des agents IA :

Couche 1 — Gestion des identités et des accès : quels agents ont accès à quels systèmes, quel est le principe du moindre privilège pour les agents, quels humains ont autorisé quelles actions d'agent, et quelles actions d'agent nécessitent une autorisation humaine.

Couche 2 — Agent Behavior Analytics : à quoi ressemble le comportement normal d'un agent, quand l'agent agit-il en dehors de sa cartographie, quelles activités de première fois doivent être signalées, et comment l'analytique basée sur les sessions détecte-t-elle les comportements anormaux des agents.

Couche 3 — Threat Intelligence OWASP Agentic Top 10 : les agents sont-ils ciblés par des injections de prompts, les agents tentent-ils une escalade de privilèges, les agents accèdent-ils à des données en dehors de leur autorisation, et comment la surveillance par rapport à l'OWASP Top 10 fournit-elle une couverture mesurable de ces menaces.

Couche 4 — Journalisation d'audit et forensique : qu'a fait chaque agent, quand, et avec quel contexte, qui a autorisé chaque action d'agent, et à quelles données chaque agent a accédé.

Couche 5 — Gouvernance et politique : ce que les agents sont autorisés à faire, à quelles données les agents sont autorisés à accéder, et ce qui se passe lorsqu'un agent se comporte de manière anormale.

Les actions prioritaires pour le RSSI par ordre : effectuer un inventaire des agents — la plupart des entreprises ne savent pas combien d'agents IA opèrent dans leur environnement. Établir des cartographies comportementales — à quoi ressemble le comportement normal des agents. Déployer ABA — mettre en place la surveillance comportementale des agents. S'aligner sur l'OWASP Top 10 — auditer par rapport aux catégories de menaces. Intégrer avec le SOC existant — les événements de sécurité des agents doivent être acheminés vers le centre d'opérations de sécurité aux côtés des autres alertes de sécurité.

Si votre équipe de sécurité ne sait pas à quoi ressemble le comportement normal des agents IA dans votre environnement, vous n'avez pas de sécurité des agents IA. Commencez par l'inventaire des agents.

Ready to let AI handle your busywork?

Book a free 20-minute assessment. We'll review your workflows, identify automation opportunities, and show you exactly how your AI corps would work.

From $199/month ongoing, cancel anytime. Initial setup is quoted based on your requirements.