La Brecha de Rendición de Cuentas en Agentes de IA: El 74% de los Trabajadores del Conocimiento Usa IA, Pero Nadie se Hace Responsable
La pregunta que nadie en tu organización puede responder: ¿qué agente de IA accedió a qué datos, cuándo y con qué autorización?
Hoy, 26 de marzo de 2026, Fortune publicó un estudio junto con Accenture y Wharton que pone la magnitud del problema en perspectiva clara. Casi el 74% de los trabajadores del conocimiento ahora usan IA. No de una manera aprobada y gobernada. De la manera de la IA en la sombra: trae tus propias herramientas de IA, implementadas por las unidades de negocio, sin aprobación de TI, sin revisión de seguridad, sin una conversación sobre qué pasa cuando algo sale mal.
Al mismo tiempo, en la RSAC 2026 en San Francisco esta semana, CSA y Aembit publicaron datos de una encuesta a 228 profesionales de TI y seguridad que hacen la realidad organizacional aún más evidente. El 68% de las organizaciones no pueden distinguir claramente la actividad de agentes de IA de la actividad humana en sus propios sistemas. El 84% duda de que pudieran aprobar una auditoría de cumplimiento centrada en el comportamiento de los agentes de IA y los controles de acceso.
El 74% de tus trabajadores del conocimiento están usando IA. El 68% de las organizaciones no pueden decir si las acciones en sus sistemas fueron realizadas por un humano o por un agente de IA. Nadie es responsable de esto.
Esa es la brecha de rendición de cuentas. Y no es un problema tecnológico. Es un problema de diseño organizacional.
Los números detrás de la brecha de responsabilidad
El 74% de los trabajadores del conocimiento usan IA, la mayoría sin gobernanza
El informe Global Products de Accenture y Wharton, publicado hoy en Fortune, es el ancla para esta sección. James Crowley, coautor: "La inteligencia puede ser escalable, pero la rendición de cuentas no lo es." Esa oración es la tesis.
El alcance: 120 millones de trabajadores en 18 industrias. Más del 50% de las horas de trabajo en la economía estadounidense están en juego, susceptibles de ser transformadas por agentes de IA. Banca y mercados de capitales: más del 45% de las horas impacted por agentes digitales. Para 2028, se espera que aproximadamente una de cada tres aplicaciones empresariales incorpore capacidades agentivas.
La respuesta de gobernanza a este despliegue no ha mantenido el ritmo. La mayoría de los trabajadores del conocimiento que usan IA lo hacen a través de herramientas no aprobadas. Las unidades de negocio están adoptando IA más rápido de lo que TI puede evaluarla. Los equipos de seguridad no tienen visibilidad sobre qué agentes se están ejecutando, qué están accediendo o qué decisiones están tomando.
El 85% tiene agentes en producción. El 68% no puede decir si es humano o IA.
La encuesta de CSA/Aembit, publicada el 24 de marzo en RSAC 2026 y cubierta por Help Net Security el 26 de marzo, es la contraparte operativa de los datos de Fortune.
El 85% de las organizaciones tienen agentes de IA funcionando en entornos de producción. Ese número es consistente con el hallazgo de Accenture+Wharton: los agentes están desplegados, están operativos, están tomando decisiones.
Pero el 68% no puede distinguir claramente entre actividad iniciada por humanos y actividad iniciada por agentes de IA en sus propios sistemas. Esa no es una brecha menor. Ese es un problema fundamental de identidad. Si no puedes distinguir lo que hizo un humano de lo que hizo un agente, no puedes atribuir acciones, hacer cumplir la rendición de cuentas ni investigar incidentes.
Los datos que se acumulan: el 73% espera que los agentes de IA se vuelven vitales para sus organizaciones dentro del próximo año. La tasa de despliegue se está acelerando. La brecha de gobernanza se está ensanchando con ella.
El 91% usa agentes. El 10% tiene gobernanza efectiva.
El webinar conjunto de Okta y Accenture, del 23 de enero de 2026, nos dio el contraste de efectividad de gobernanza: el 91% de las organizaciones ya están usando agentes de IA. Solo el 10% siente que tiene una estrategia efectiva de gobernanza de agentes de IA.
Diez por ciento. Ese es el número que debería mantener a todo CISO despierto esta noche. Casi todas las empresas están ejecutando agentes de IA. Casi ninguna tiene gobernanza que funcione.
Greg Callegari de Accenture puso el diagnóstico claramente en ese webinar: "Los agentes actúan como empleados, realizan tareas que harían los humanos. Entonces, la forma de protegerlos es gestionándolos como identidades." Las organizaciones que no han aceptado esa premisa son las que operan con efectividad de gobernanza del 10%.
Por qué nadie es responsable de la rendición de cuentas de los agentes de IA
La brecha de responsabilidad no es accidental. Es estructural. Los datos de CSA hacen visible la fragmentación de la propiedad en números: la responsabilidad por la gobernanza de agentes de IA está dispersa entre cuatro grupos, ninguno de los cuales la tiene como mandato primario.
Seguridad lidera: 28%. Desarrollo e ingeniería: 21%. TI: 19%. Equipos de IAM: 9%.
Nueve por ciento. El equipo más calificado para gestionar identidades no humanas — IAM — está liderando la gobernanza de agentes de IA en solo el 9% de las organizaciones. Todos los demás están improvisando.
Kevin Werbach del Wharton Accountable AI Lab describió la dinámica organizacional que crea este vacío: "Mi gerente de programa de negocio está creando agentes y lanzándolos." El proceso tradicional de revisión de liberación de TI no puede mantener el ritmo de la velocidad con la que se están construyendo agentes dentro de las organizaciones. Para cuando se programa una revisión de gobernanza, el agente lleva seis semanas ejecutándose en producción.
El resultado: responsabilidad que es responsabilidad de todos y de nadie. Seguridad piensa que IAM es responsable. IAM piensa que seguridad es responsable. Desarrollo construyó algunos. Las unidades de negocio construyeron otros. Nadie convocó una reunión para decidir quién era responsable de qué pasaba cuando el agente hacía algo inesperado.
La brecha de autenticación
La dimensión técnica del problema de responsabilidad es igualmente evidente.
De la investigación de Strata Identity y CSA, publicada el 5 de febrero de 2026: el 44% de las organizaciones usan claves API estáticas para autenticar agentes de IA. El 43% usa combinaciones de nombre de usuario y contraseña. Estos no son sistemas heredados. Estos son agentes de IA en producción, ejecutándose de forma autónoma, usando el mismo modelo de credenciales que el inicio de sesión de un empleado humano.
Las claves API estáticas no expiran automáticamente. Las credenciales de nombre de usuario y contraseña no están vinculadas a la identidad de un agente específico. Cuando un agente se ve comprometido, esas credenciales permanecen activas hasta que alguien las revoca manualmente. Eric Olden, CEO de Strata Identity: "Credenciales estáticas, aprovisionamiento manual y políticas en silos no pueden mantener el ritmo de la velocidad y autonomía de los sistemas agentivos."
El 31% de las organizaciones permiten que los agentes de IA operen bajo identidades de usuarios humanos. Eso significa que el agente está usando las mismas credenciales que un empleado específico: no una identidad de servicio, no una identidad de agente, sino el inicio de sesión de un humano real. Cuando algo sale mal, el registro de auditoría muestra un nombre humano. El humano estaba en una reunión en ese momento.
Las implicaciones de seguridad: cuando los agentes se portan mal
La brecha de responsabilidad no es solo un problema de cumplimiento. Es una superficie de ataque de seguridad.
Los datos de CSA/Aembit: el 74% de las organizaciones reportan que los agentes de IA frecuentemente reciben más acceso del necesario para su tarea específica. El 79% dice que los agentes crean nuevas rutas de acceso que son difíciles de monitorear. Estos no son casos extremos. Estas son la norma operativa.
Un agente de IA con permisos demasiado amplios, operando de forma autónoma en múltiples sistemas, es la definición de superficie de ataque expandida. No es un insider malicioso. No es un atacante externo. Es un sistema autónomo haciendo exactamente lo que se diseñó para hacer, con acceso que nadie definió apropiadamente.
El riesgo de manipulación de prompts lo compounding esto. El 81% de las organizaciones están de acuerdo: la manipulación de prompts podría hacer que un agente de IA revele credenciales o tokens sensibles. El agente usa credenciales reales a través de una ruta de acceso real. No se plantó malware. No se usó código de exploit. El agente fue manipulado para actuar contra los intereses de la organización a través de la misma interfaz que se supone debe usar.
Arize publicó "100 AI Agents Per Employee" el 21 de marzo de 2026. La predicción de Jensen Huang: aproximadamente 100 agentes de IA por empleado en las grandes empresas dentro de pocos años. La estimación del estado actual de McKinsey: 25,000 agentes trabajando junto a 60,000 humanos en una empresa grande típica. Calcula esa matemática en tu organización. Cada agente tiene algún nivel de acceso al sistema. La mayoría tiene más de lo que necesita. La mayoría no se monitorea. La mayoría opera bajo credenciales que nadie definió.
Eso no es una postura de seguridad. Eso es una superficie de ataque esperando un disparador.
La solución de gobernanza: trata a los agentes de IA como empleados
El marco de Greg Callegari del webinar de Okta es el principio de gobernanza más accionable que he visto articulado para agentes de IA: "Los agentes necesitan su propia identidad. Una vez que aceptas eso, todo lo demás fluye: control de acceso, gobernanza, auditoría y cumplimiento."
Trata a los agentes de IA como empleados. No metafóricamente. Operativamente.
Ninguna organización contrataría a un empleado, le entregaría credenciales de administrador en todos los sistemas y esperaría lo mejor. Definirían un rol. Harían cumplir el mínimo privilegio. Monitorearían la actividad. Establecerían quién es responsable cuando algo sale mal.
Los agentes de IA necesitan exactamente el mismo tratamiento. Esto es lo que eso se ve en la práctica.
Paso 1: Dale a cada agente su propia identidad formal
No una cuenta de servicio compartida. No el inicio de sesión de un empleado humano. Una identidad distintiva y atribuible, con sus propias credenciales, su propio alcance de acceso y su propia cadena de propiedad.
Esta es la base. Cada otro paso de gobernanza depende de ella. Sin identidad a nivel de agente, no puedes atribuir acciones, hacer cumplir controles de acceso ni realizar investigaciones de incidentes significativas.
Paso 2: Define el acceso como defines el acceso para un nuevo empleado
Define exactamente a qué necesita acceso cada agente, para exactamente qué tareas. Los agentes deben operar con acceso de mínimo privilegio: exactamente lo que su función requiere, nada más.
Los datos de CSA: el 74% de los agentes reciben más acceso del necesario reflejan el default actual: los agentes obtienen acceso amplio porque es más fácil de configurar. Ese es el mismo razonamiento que creó el problema de permisos excesivos para empleados humanos en la década de 1990. Lo resolvimos entonces con control de acceso basado en roles. Necesitamos resolverlo ahora para agentes de IA.
Paso 3: Define la gestión del ciclo de vida del agente
Los agentes tienen fechas de inicio. Los agentes tienen períodos de revisión. Los agentes tienen fechas de fin.
Cuando la tarea asignada de un agente de IA se completa, su acceso debe ser revisado y, si es apropiado, revocado. Cuando un agente se desmantela, su identidad debe ser retirada formalmente, igual que cuando un empleado se va.
La mayoría de las organizaciones no tienen proceso de ciclo de vida de agentes. La mayoría de los agentes funcionan hasta que algo se rompe o nadie recuerda que existen. Los agentes que continúan ejecutándose indefinidamente con credenciales activas son los que se convierten en incidentes de seguridad.
Paso 4: Monitoreo continuo y atribución
El comportamiento del agente debe ser registrado, atribuido a una identidad de agente específica y monitoreado continuamente: no revisado después de un incidente, sino rastreado en tiempo real como práctica operativa estándar.
Aquí es donde el 68%: organizaciones que no pueden distinguir actividad de agentes de humanos, necesita comenzar. No puedes monitorear lo que no puedes distinguir. Construye primero la infraestructura de atribución.
Paso 5: Asigna un propietario único con responsabilidad total
La fragmentación de la propiedad: seguridad 28%, dev/eng 21%, TI 19%, IAM 9% es la razón estructural por la cual la gobernanza falla. Gobernanza sin un propietario nombrado es gobernanza sin aplicación.
Un equipo debe ser propietario de la gobernanza de agentes de IA. Para la mayoría de las organizaciones, ese es IAM: el equipo ya responsable de la gestión de identidades no humanas. Para otros, podría ser seguridad. El equipo específico importa menos que el principio: un propietario, con responsabilidad explícita, con autoridad para hacer cumplir las políticas.
La autoevaluación de responsabilidad: 8 preguntas que todo ejecutivo debería poder responder
Usa estas ocho preguntas para evaluar dónde se encuentra tu organización. Un "no" o "no lo sé" en la mayoría de estas es un diagnóstico, no un veredicto.
1. ¿Qué porcentaje de los agentes de IA que se ejecutan en tu entorno de producción pasaron por una revisión formal de TI y seguridad antes del despliegue?
Si la respuesta es "la mayoría de ellos" o "no lo sé", tienes un problema de gobernanza. Los datos de Accenture+Wharton sugieren que es la segunda.
2. ¿Puedes distinguir, en tiempo real, qué acciones en tus sistemas fueron realizadas por un humano versus por un agente de IA?
Si no, no puedes atribuir acciones, investigar incidentes ni realizar auditorías de cumplimiento. El 68% que no puede distinguir es tu grupo de pares.
3. ¿Quién es dueño de la gobernanza de agentes de IA en tu organización?
Si la respuesta involucra la palabra "nosotros", como en "todos lo hacemos", nadie es dueño. La propiedad requiere un nombre específico.
4. ¿Qué porcentaje de tus agentes de IA operan bajo su propia identidad formal versus una cuenta de servicio compartida o las credenciales de un empleado humano?
Si la mayoría de los agentes usan credenciales compartidas, no puedes atribuir acciones a agentes específicos. No puedes revocar una credencial compartida sin afectar a cada agente que la usa.
5. ¿Podrías aprobar una auditoría de cumplimiento centrada específicamente en el comportamiento de los agentes de IA y los controles de acceso?
Los datos de CSA: el 84% de las organizaciones dudan de que puedan. Si tu respuesta es cualquier cosa que no sea "sí", la brecha es tu exposición.
6. ¿Tus agentes de IA tienen alcances de acceso definidos, o tienen más acceso del que requieren sus tareas específicas?
Si los agentes tienen acceso amplio a los sistemas en lugar de acceso específico para tareas, tienes el problema del 74%: permisos elevados que crean superficie de ataque innecesaria.
7. ¿Qué pasa con el acceso de un agente de IA cuando su tarea asignada se completa?
Si la respuesta es "sigue funcionando", tienes agentes con credenciales activas y sin estado final definido. Ese es el problema del ciclo de vida.
8. ¿Tienes un plan de respuesta a incidentes específicamente para un agente de IA comprometido?
Si la respuesta es "lo manejaríamos como cualquier otro incidente de seguridad", no tienes un plan específico para IA. Un agente comprometido opera de manera diferente a credenciales humanas comprometidas: tu respuesta debería reflejar eso.
Conclusión
La brecha de responsabilidad no es una brecha tecnológica. Es una brecha de diseño organizacional.
El 74% de los trabajadores del conocimiento están usando IA. El 68% de las organizaciones no pueden decir si las acciones en sus propios sistemas fueron realizadas por un humano o por un agente de IA. El 84% duda de que pudieran aprobar una auditoría de cumplimiento. El 10% siente que tiene gobernanza efectiva.
Estos números no son abstractos. Describen la postura real de tu organización ahora mismo.
La solución no es un nuevo documento de políticas. Es una decisión organizacional: trata a los agentes de IA como empleados, con identidades formales, acceso definido, gestión del ciclo de vida y responsabilidad asignada. El marco de Callegari funciona. Las organizaciones que lo han implementado son el 10% que siente que su gobernanza es efectiva.
Todos los demás esperan que los agentes se porten bien. Eso no es una estrategia de gobernanza. Eso es un pasivo.