La sécurité des agents IA : les lacunes identitaires, les agents autonomes et l'automatisation SOC en 2026
RSAC 2026 a delivers un message sans équivoque sur toutes les grandes thématiques de sécurité : l'identité des AI agents constitue la tendance sécurité de l'année. Le déploiement rapide des AI agents au sein des entreprises a dépassé les programmes de sécurité conçus pour les protéger. Il en résulte un fossé croissant — et une nouvelle surface d'attaque que la plupart des organisations ne sont pas prêtes à affronter.
La recherche Salt Security sur l'état de la sécurité de l'IA et des API au premier semestre 2026, menée auprès de 327 professionnels de la sécurité dans les secteurs de la technologie, des services financiers, de la santé et de l'industrie manufacturière, a révélé que les AI agents devancent les programmes de sécurité. Voici la réalité duale de l'IA agentique : ces systèmes représentent simultanément les outils de sécurité les plus performants jamais déployés par les organisations, et le risque de sécurité nouveau le plus significatif auquel elles font face.
Le fossé qui s'élargit
La vitesse de déploiement des AI agents comparée à celle du développement des programmes de sécurité a créé un fossé. Les organisations déploient des agents dans les environnements de production plus rapidement qu'elles ne construisent les contrôles de sécurité pour gouvern эти agents.
Ce fossé n'est pas hypothétique. Les conférences plénières de RSAC 2026 l'ont explicitement formulé : la surface d'attaque d'une entreprise ayant déployé des AI agents sans contrôles adéquats d'identité, d'identification et de comportement est matériellement plus grande que celle de la même entreprise avant le déploiement de ces agents.
Les conclusions de Salt Security issues de l'enquête auprès de 327 professionnels : les organisations qui ont déployé des AI agents en production connaissent des incidents de sécurité liés à ces agents à un taux quicorrespond à une vitesse de déploiement supérieure à la préparation sécurité. Plus le déploiement est rapide, plus le taux d'incidents est élevé.
Les catégories d'incidents : actions non autorisées effectuées par des agents opérant en dehors des paramètres prévus, compromission d'identifiants via les canaux de communication inter-agents, fuite de données par des agents disposant d'un accès trop large aux données, et injection de prompts via des entrées malveillantes dans les flux de travail agentiques.
Les AI agents comme actifs de sécurité
Avant l'inventaire des risques : les AI agents sont également des outils de sécurité puissants. La réalité duale est importante.
Les agents de détection agentiques peuvent analyser les données comportementales à travers les systèmes d'entreprise d'une manière impossible pour les systèmes statiques basés sur des règles. Un agent qui surveille les modèles d'accès, les graphes d'appels API et le comportement des utilisateurs peut détecter des anomalies qu'il faudrait à un analyste humain des heures pour identifier — en temps réel, à travers des millions d'événements.
L'automatisation SOC avec des AI agents réduit la charge opérationnelle de la surveillance sécurité. Le temps des analystes humains consacré à la recherche de modèles et au triage initial peut être réorienté vers l'investigation et la réponse. Le résultat : une détection et une réponse plus rapides, avec une expertise humaine appliquée là où elle apporte le plus de valeur.
Le Salt Agentic Security Platform, lancé comme première plateforme de sécurité agentique pour les piles d'IA couvrant les LLM, les serveurs MCP et les API, représente le marché commençant à considérer les AI agents comme un domaine légitime de la sécurité nécessitant des outils dédiés. L'existence d'une plateforme de sécurité agentique signale que la communauté sécurité reconnaît l'IA agentique comme une surface de menace distincte.
Les AI agents comme risques de sécurité
L'autre face de la médaille : les AI agents introduisent des risques que les contrôles de sécurité traditionnels n'étaient pas conçus pour adresser.
Risque d'identité accru : les agents opèrent avec des identifiants délégués, souvent avec un accès plus large qu'un humain n'en aurait besoin pour la même tâche. Lorsqu'un agent est compromis, le rayon d'impact est plus important.
Délégation inter-agents sans identité standardisée : lorsqu'un agent délègue une tâche à un autre agent, il n'existe pas de framework d'identité standardisé équivalent à OAuth pour l'authentification humain-à-application. L'agent destinataire n'a souvent aucun moyen fiable de vérifier l'identité et l'autorité de l'agent déléant.
Secrets faibles hérités par les agents autonomes : les agents sont fréquemment provisionnés avec des clés API, des comptes de service et des identifiants qui n'étaient pas conçus pour une opération autonome. Ces identifiants ne sont pas soumis à la même discipline de rotation que les systèmes accessibles par des humains. Les identifiants obsolètes avec un accès étendu constituent une surface de risque significative.
Agents fantômes après les programmes pilotes : les organisations qui ont exécuté des pilotes d'AI agents et qui n'ont pas ensuite officiellement mis hors service les agents ou leurs identifiants font tourner en production des agents qui n'ont jamais été soumis à une revue de sécurité. Ces agents fantômes représentent une surface d'attaque non gérée.
Le problème du déficit d'identité
Le NIST travaille sur un document conceptuel pour les normes d'identité des logiciels et des AI agents. C'est la communauté sécurité qui reconnaît que l'état actuel — où les agents opèrent sans vérification d'identité standardisée — n'est pas durable.
Le problème central : il n'existe pas d'équivalent OAuth pour les AI agents. OAuth résout le problème de l'octroi d'accès limité aux ressources sans partager d'identifiants. Il le fait à travers un protocole standardisé que les applications et les utilisateurs comprennent et qui peut être audité et révoqué.
Les AI agents opèrent actuellement dans un monde où la délégation d'identifiants se fait par des mécanismes ad hoc. Un agent qui doit accéder à un système présente un identifiant — une clé API, un compte de service — qui a été émis pour un accès machine-à-machine, et non pour un agent autonome opérant avec une autorité déléguée.
Les implications : un agent peut être compromis silencieusement et opérer sans détection car l'identifiant qu'il utilise n'a jamais été conçu pour être lié à un acteur autorisé spécifique. Le système recevant l'identifiant n'a aucun moyen de distinguer l'agent pour lequel il a été émis et un autre système qui a obtenu le même identifiant.
Exigences de rotation des identifiants : les agents ont besoin d'identifiants qui peuvent être rotés, révoqués et audités de la même manière que les systèmes accessibles par des humains. Cela nécessite des frameworks d'identité d'agent qui n'existent actuellement pas en tant que normes.
La détection d'agents malveillants
Un agent malveillant est un agent opérant en dehors de sa ligne de base comportementale définie. Cela se distingue d'un agent défaillant — un agent malveillant peut fonctionner correctement mais en dehors des paramètres pour lesquels il a été autorisé.
À quoi ressemble un comportement malveillant : un agent qui s'est vu accorder l'accès à une base de données clients et qui commence à extraire des enregistrements au-delà de son périmètre autorisé. Un agent qui commence à modifier des fichiers qu'il n'était autorisé qu'à lire. Un agent qui commence à déléguer des tâches à d'autres agents sans autorisation de l'orchestrateur.
Analyse ISACA « Agentic AI Evolution and the Security Claw » : la communauté sécurité développe des mécanismes de détection du comportement d'agents malveillants, mais les exigences de surveillance de base ne sont pas encore standardisées dans la plupart des entreprises.
Implications pour le SOC : détecter les agents malveillants nécessite un établissement de lignes de base comportementales — comprendre ce que l'agent est censé faire, surveiller les déviations, et déclencher des alertes ou des interventions lorsque des déviations se produisent. C'est plus complexe que de surveiller le comportement des utilisateurs humains car le comportement « normal » de l'agent inclut une prise de décision autonome intrinsèquement variable.
Comment les agents de détection agentiques suivent le comportement malveillant : un agent secondaire — ou un système de détection dédié — surveille les actions de l'agent primaire par rapport à sa ligne de base comportementale définie. Les déviations déclenchent des alertes. Le déficit d'automatisation SOC réside dans la corrélation des déviations de comportement des agents avec les incidents de sécurité et le routage des réponses appropriées.
Le défi de l'automatisation SOC
L'automatisation SOC pour l'IA agentique nécessite de combler des déficits qui n'existaient pas dans les opérations de sécurité traditionnelles :
Surveillance de la ligne de base comportementale des agents : surveillance continue des actions des agents par rapport aux paramètres comportementaux définis. Cela nécessite des outils que la plupart des plateformes SOC actuelles ne proposent pas nativement.
Surveillance de la communication inter-agents : suivi des chaînes de délégation entre les agents pour identifier une délégation non autorisée ou une mauvaise utilisation des identifiants.
Vérification d'identité pour les actions des agents : lier les actions des agents à une identité et une autorisation vérifiées. Nécessite actuellement une implémentation personnalisée dans la plupart des environnements.
Les déficits d'automatisation SOC comblés et mesurés par des plateformes comme le Salt Agentic Security Platform représentent le marché commençant à adresser ces exigences. Les déficits sont réels et croissants à mesure que les déploiements d'agents s'intensifient.
Le cadre fondamental de la sécurité
Cinq recommandations concrètes pour les responsables de la sécurité :
Auditer les déploiements d'agents existants : inventorier chaque AI agent actuellement en production, les systèmes auxquels il accède, les identifiants qu'il détient, et les propriétaires humains responsables de son comportement. La plupart des organisations découvriront des agents fantômes qu'elles ignoraient.
Établir la rotation des identifiants pour les agents : les identifiants émis aux agents doivent être soumis à des politiques de rotation. Les clés API et les comptes de service utilisés par les agents doivent être rotés selon des calendriers définis avec une application automatisée.
Définir des lignes de base comportementales pour chaque agent : pour chaque agent en production, documenter à quoi ressemble un comportement autorisé. Implémenter une surveillance qui alerte lorsque l'agent opère en dehors de cette ligne de base.
Implémenter l'authentification inter-agents : jusqu'à l'existence de normes, implémenter des mécanismes d'authentification pour la délégation d'agents. Un agent déléguant à un autre agent doit vérifier l'identité et l'autorité avant d'exécuter la tâche déléguée.
Évaluer les plateformes de sécurité agentiques : le Salt Agentic Security Platform et les alternatives émergentes adressent les exigences spécifiques de surveillance et de détection pour les piles d'IA agentiques. Évaluez-les dans le cadre de votre feuille de route sécurité.
Ce que les équipes sécurité doivent faire maintenant
Actions immédiates :
Réaliser un inventaire des agents : trouver chaque AI agent dans votre environnement de production, y compris les programmes pilotes qui peuvent ne pas avoir été officiellement transitionnés vers un statut opérationnel. Documenter ce à quoi chaque agent accède et quels identifiants il détient.
Cartographier l'exposition des identifiants : pour chaque agent, identifier les identifiants qu'il utilise et évaluer si ces identifiants sont soumis à des contrôles de rotation, de surveillance et de révocation.
Définir des lignes de base comportementales : travailler avec les équipes propriétaires de chaque agent pour définir à quoi ressemble un comportement autorisé. Ces lignes de base constituent le fondement de la détection d'agents malveillants.
Passer en revue les playbooks SOC pour les incidents agentiques : les playbooks de réponse aux incidents existants ne tiennent pas compte des scénarios spécifiques aux agents. Développer des playbooks pour la compromission d'agents, la mauvaise utilisation des identifiants, la délégation non autorisée et la déviation comportementale.
Les organisations qui ont déployé des AI agents le plus rapidement découvrent désormais les implications sécurité en premier. Les autres ont l'opportunité de construire des fondations de sécurité avant que la surface d'attaque ne s'agrandisse davantage.
Articles connexes : Multi-Agent AI Systems · AI Agent Observability · AI Agent ROI