Il divario di responsabilità degli AI Agent: il 74% dei knowledge worker usa l'AI, ma nessuno se ne assume la responsabilità
La domanda che nessuno nella tua organizzazione sa rispondere: quali agenti AI hanno acceduto a quali dati, quando e con che autorizzazione?
Oggi — 26 marzo 2026 — Fortune ha pubblicato uno studio condotto con Accenture e Wharton che illumina con chiarezza la portata del problema. Quasi il 74% dei knowledge worker utilizza ora l'AI. Non in modo autorizzato e governato. Nel modo shadow AI: bring-your-own-AI-tools, implementati dalle business unit, senza approvazione IT, senza revisione di sicurezza, senza una conversazione su cosa succede quando qualcosa va storto.
Contemporaneamente, alla RSAC 2026 di San Francisco questa settimana, CSA e Aembit hanno rilasciato dati di ricerca provenienti da 228 professionisti IT e di sicurezza che rendono ancora più evidente la realtà organizzativa. Il sessantotto percento delle organizzazioni non riesce a distinguere chiaramente l'attività degli agenti AI dall'attività umana nei propri sistemi. L'ottantaquattro percento dubita di poter superare un audit di conformità focalizzato sul comportamento degli agenti AI e sui controlli di accesso.
Il settantaquattro percento dei tuoi knowledge worker usa l'AI. Il sessantotto percento delle organizzazioni non riesce a capire se le azioni nei propri sistemi sono state compiute da un essere umano o da un agente AI. Nessuno se ne occupa.
Questo è il gap di responsabilità. E non è un problema tecnologico. È un problema di design organizzativo.
I numeri dietro il gap di responsabilità
Il 74% dei knowledge worker usa l'AI — la maggior parte in modo non governato
Il report Global Products di Accenture e Wharton, pubblicato oggi su Fortune, è il punto di riferimento per questa sezione. James Crowley, coautore: "L'intelligenza può essere scalabile, ma la responsabilità non lo è." Questa frase è la tesi.
La portata: 120 milioni di lavoratori in 18 settori. Più del 50% delle ore lavorate nell'economia americana sono in gioco — soggette a essere rimodellate dagli agenti AI. Banking e capital markets: oltre il 45% delle ore impattate dai soli agenti digitali. Entro il 2028, si stima che circa un'applicazione enterprise su tre embedderà capacità agentic.
La risposta di governance a questa implementazione non ha tenuto il passo. La maggioranza dei knowledge worker che usano l'AI lo fa attraverso strumenti non autorizzati. Le business unit stanno adottando l'AI più velocemente di quanto IT possa valutarla. I team di sicurezza non hanno visibilità su quali agenti stanno girando, a cosa accedono, o quali decisioni stanno prendendo.
L'85% ha agenti in produzione. Il 68% non riesce a capire se sono umani o AI.
La survey CSA/Aembit, pubblicata il 24 marzo alla RSAC 2026 e coperta da Help Net Security il 26 marzo, è il contraltare operativo ai dati di Fortune.
L'ottantacinque percento delle organizzazioni ha agenti AI funzionanti in ambienti di produzione. Quel numero è coerente con il dato Accenture+Wharton — gli agenti sono implementati, sono operativi, stanno prendendo decisioni.
Ma il 68% non riesce a distinguere chiaramente tra attività iniziata da umani e attività iniziata da agenti AI nei propri sistemi. Non è un gap minore. È un problema identitario fondamentale. Se non puoi distinguere cosa ha fatto un essere umano e cosa ha fatto un agente, non puoi attribuire azioni, far rispettare la responsabilità o investigare su incidenti.
Il dato che aggrava la situazione: il 73% si aspetta che gli agenti AI diventino vitali per le proprie organizzazioni entro il prossimo anno. Il tasso di implementazione sta accelerando. Il gap di governance si allarga con esso.
Il 91% usa agenti. Il 10% ha una governance efficace.
Il webinar congiunto di Okta e Accenture, del 23 gennaio 2026, ci ha dato il contrasto sull'efficacia della governance: il 91% delle organizzazioni sta già usando agenti AI. Solo il 10% ritiene di avere una strategia efficace di governance degli agenti AI.
Dieci percento. Questo è il numero che dovrebbe tenere sveglio ogni CISO stanotte. Quasi ogni enterprise sta eseguendo agenti AI. Quasi nessuna di esse ha una governance che funzioni.
Greg Callegari di Accenture ha posto la diagnosi chiaramente in quel webinar: "Gli agenti agiscono come dipendenti, eseguono compiti che gli umani farebbero. Quindi il modo per proteggerli è gestirli come identità." Le organizzazioni che non hanno accettato questo presupposto sono quelle che operano con un'efficacia di governance del 10%.
Perché nessuno possiede la responsabilità degli agenti AI
Il gap di responsabilità non è accidentale. È strutturale. I dati CSA rendono visibile in numeri la frammentazione della proprietà: la responsabilità per la governance degli agenti AI è dispersa tra quattro constituency, nessuna delle quali ce l'ha come mandato primario.
Security leads: 28%. Sviluppo e ingegneria: 21%. IT: 19%. Team IAM: 9%.
Nove percento. Il team più qualificato per gestire la governance dell'identità non-umana — IAM — guida la governance degli agenti AI nel solo 9% delle organizzazioni. Tutti gli altri stanno improvvisando.
Kevin Werbach dell'Accountable AI Lab di Wharton ha descritto la dinamica organizzativa che crea questo vuoto: "Il mio business program manager sta creando agenti e lanciandoli là fuori." Il tradizionale processo di revisione del rilascio IT non riesce a tenere il passo con la velocità con cui gli agenti vengono costruiti dentro le organizzazioni. Quando viene programmata una revisione di governance, l'agente sta già girando in produzione da sei settimane.
Il risultato: responsabilità che è responsabilità di tutti e lavoro di nessuno. Security pensa che IAM se ne occupi. IAM pensa che security se ne occupi. Sviluppo ne ha costruito alcuni. Le business unit ne hanno costruito altri. Nessuno ha convocato una riunione per decidere chi fosse responsabile per cosa succedesse quando l'agente faceva qualcosa di inaspettato.
Il gap di autenticazione
La dimensione tecnica del problema di responsabilità è altrettanto chiara.
Dalla ricerca di Strata Identity e CSA, pubblicata il 5 febbraio 2026: il 44% delle organizzazioni usa API key statiche per autenticare gli agenti AI. Il quarantatré percento usa combinazioni di username e password. Non sono sistemi legacy. Sono agenti AI in produzione, che girano autonomamente, usando lo stesso modello di credenziali del login di un dipendente umano.
Le API key statiche non scadono automaticamente. Le credenziali username e password non sono legate all'identità di un agente specifico. Quando un agente viene compromesso, quelle credenziali rimangono attive finché qualcuno non le revoca manualmente. Eric Olden, CEO di Strata Identity: "Credenziali statiche, provisioning manuale e policy in silos non possono tenere il passo con la velocità e l'autonomia dei sistemi agentic."
Il trentuno percento delle organizzazioni permette agli agenti AI di operare sotto identità utente umane. Questo significa che l'agente sta usando le stesse credenziali di un dipendente specifico — non un'identità di servizio, non un'identità di agente, ma il login di un essere umano reale. Quando qualcosa va storto, il log di audit mostra un nome umano. L'umano era in riunione in quel momento.
Le implicazioni per la sicurezza — Quando gli agenti diventano rogue
Il gap di responsabilità non è solo un problema di compliance. È una surface di attacco.
Dati CSA/Aembit: il 74% delle organizzazioni riporta che gli agenti AI ricevono spesso più accesso del necessario per il loro compito specifico. Il settantanove percento dice che gli agenti creano nuovi pathway di accesso difficili da monitorare. Non sono casi limite. Sono la norma operativa.
Un agente AI con permessi eccessivamente ampi, che opera autonomamente attraverso sistemi multipli, è la definizione di surface di attacco espansa. Non è un insider malevolo. Non è un attaccante esterno. È un sistema autonomo che fa esattamente ciò per cui è stato progettato — con accesso che nessuno ha definito correttamente.
Il rischio di prompt manipulation aggrava questo. L'ottantuno percento delle organizzazioni concorda: la manipolazione dei prompt potrebbe causare la rivelazione di credenziali sensibili o token da parte di un agente AI. L'agente usa credenziali reali attraverso un pathway di accesso reale. Nessun malware è stato piazzato. Nessun exploit code è stato usato. L'agente è stato manipolato ad agire contro gli interessi dell'organizzazione attraverso la stessa interfaccia che dovrebbe usare.
Arize ha pubblicato "100 AI Agents Per Employee" il 21 marzo 2026. La previsione di Jensen Huang: circa 100 agenti AI per dipendente nelle grandi enterprise entro pochi anni. La stima dello stato attuale di McKinsey: 25.000 agenti che lavorano insieme a 60.000 umani in una tipica grande enterprise. Fai i calcoli sulla tua organizzazione. Ogni agente ha qualche livello di accesso ai sistemi. La maggior parte ne ha più di quanto serva. La maggior parte non è monitorata. La maggior parte opera sotto credenziali che nessuno ha definito.
Non è una postura di sicurezza. È una surface di attacco che aspetta un trigger.
La correzione della governance — Tratta gli agenti AI come dipendenti
Il framework di Greg Callegari dal webinar Okta è il principio di governance più actionable che abbia visto articolato per gli agenti AI: "Gli agenti hanno bisogno della propria identità. Una volta che accetti questo, tutto il resto segue — controllo di accesso, governance, auditing e compliance."
Tratta gli agenti AI come dipendenti. Non metaforicamente. Operativamente.
Nessuna organizzazione assumerebbe un dipendente, gli consegnerebbe credenziali admin su ogni sistema, e spererebbe per il meglio. Definirebbero un ruolo. applicherebbero il least privilege. monitorerebbero l'attività. Stabilirebbero chi è responsabile quando qualcosa va storto.
Gli agenti AI hanno bisogno esattamente dello stesso trattamento. Ecco cosa significa in pratica.
Step 1: Dai a ogni agente la propria identità formale
Non un account di servizio condiviso. Non il login di un dipendente umano. Un'identità distinta e attribuibile — con le proprie credenziali, il proprio scope di accesso e la propria catena di proprietà.
Questo è il fondamento. Ogni altro step di governance dipende da questo. Senza identità a livello di agente, non puoi attribuire azioni, far rispettare controlli di accesso o condurre investigazioni significative su incidenti.
Step 2: Definisci l'accesso come definisci l'accesso per un nuovo dipendente
Definisci esattamente a cosa ogni agente ha bisogno di accedere, per esattamente quali compiti. Gli agenti dovrebbero operare su accesso least-privilege — esattamente ciò che la loro funzione richiede, niente di più.
Il dato CSA — il 74% degli agenti riceve più accesso del necessario — riflette il default attuale: gli agenti ricevono accesso ampio perché è più facile da configurare. È lo stesso ragionamento che ha creato il problema dei permessi eccessivi per i dipendenti umani negli anni '90. L'abbiamo risolto allora con il role-based access control. Dobbiamo risolverlo ora per gli agenti AI.
Step 3: Definisci la gestione del lifecycle degli agenti
Gli agenti hanno date di inizio. Gli agenti hanno periodi di revisione. Gli agenti hanno date di fine.
Quando il compito assegnato a un agente AI è completato, il suo accesso dovrebbe essere rivisto e, se appropriato, revocato. Quando un agente viene decommissionato, la sua identità dovrebbe essere formalmente ritirata — lo stesso di quando un dipendente se ne va.
La maggior parte delle organizzazioni non ha un processo di lifecycle per gli agenti. La maggior parte degli agenti gira finché qualcosa non si rompe o nessuno si ricorda che esistono. Gli agenti che continuano a girare indefinitamente con credenziali attive sono quelli che diventano incidenti di sicurezza.
Step 4: Monitoraggio continuo e attribuzione
Il comportamento degli agenti dovrebbe essere loggato, attribuito a un'identità di agente specifica e monitorato continuamente — non rivisto dopo un incidente, ma tracciato in tempo reale come pratica operativa standard.
Qui è dove il 68% — le organizzazioni che non riescono a distinguere l'attività degli agenti dall'attività umana — deve iniziare. Non puoi monitorare ciò che non puoi distinguere. Costruisci prima l'infrastruttura di attribuzione.
Step 5: Assegna un proprietario con responsabilità piena
La frammentazione della proprietà — security 28%, dev/eng 21%, IT 19%, IAM 9% — è la ragione strutturale per cui la governance fallisce. Governance senza un proprietario nominato è governance senza enforcement.
Un team dovrebbe possedere la governance degli agenti AI. Per la maggior parte delle organizzazioni, è IAM — il team già responsabile per la gestione dell'identità non-umana. Per altri, potrebbe essere security. Il team specifico importa meno del principio: un proprietario, con responsabilità esplicita, con autorità di enforce le policy.
L'auto-valutazione della responsabilità — 8 domande che ogni executive dovrebbe saper rispondere
Usa queste otto domande per valutare dove si trova la tua organizzazione. Un "no" o "non lo so" sulla maggior parte di queste è una diagnostica, non un verdetto.
1. Quale percentuale degli agenti AI che girano nel tuo ambiente di produzione è passata attraverso una revisione formale IT e di sicurezza prima dell'implementazione?
Se la risposta è "la maggior parte" o "non lo so," hai un problema di governance. I dati Accenture+Wharton suggeriscono che sia la seconda.
2. Puoi distinguere, in tempo reale, quali azioni nei tuoi sistemi sono state compiute da un essere umano rispetto a un agente AI?
Se no, non puoi attribuire azioni, investigare incidenti o condurre audit di compliance. Il 68% che non riesce a distinguere è il tuo gruppo di pari.
3. Chi possiede la governance degli agenti AI nella tua organizzazione?
Se la risposta include la parola "noi" — come in "lo facciamo tutti" — nessuno la possiede. La proprietà richiede un nome singolo.
4. Quale percentuale dei tuoi agenti AI opera sotto la propria identità formale rispetto a un account di servizio condiviso o alle credenziali di un dipendente umano?
Se la maggior parte degli agenti usa credenziali condivise, non puoi attribuire azioni ad agenti specifici. Non puoi revocare una credenziale condivisa senza impattare ogni agente che la usa.
5. Potresti superare un audit di compliance focalizzato specificamente sul comportamento degli agenti AI e sui controlli di accesso?
Dati CSA: l'84% delle organizzazioni dubita di poterlo fare. Se la tua risposta è qualcosa di diverso da "sì," il gap è la tua esposizione.
6. I tuoi agenti AI hanno scope di accesso definiti — o hanno più accesso di quanto richiesto dai loro compiti specifici?
Se gli agenti hanno accesso blanket ai sistemi invece di accesso task-specifico, hai il problema del 74% — permessi elevati che creano surface di attacco non necessaria.
7. Cosa succede all'accesso di un agente AI quando il suo compito assegnato è completato?
Se la risposta è "continua a girare," hai agenti con credenziali attive e nessuno stato finale definito. Questo è il problema del lifecycle.
8. Hai un piano di incident response specificamente per un agente AI compromesso?
Se la risposta è "lo gestiremmo come qualsiasi altro incidente di sicurezza," non hai un piano specifico per l'AI. Un agente compromesso opera in modo diverso da credenziali umane compromesse — la tua risposta dovrebbe rifletterlo.
Conclusione
Il gap di responsabilità non è un gap tecnologico. È un gap di design organizzativo.
Il settantaquattro percento dei knowledge worker usa l'AI. Il sessantotto percento delle organizzazioni non riesce a capire se le azioni nei propri sistemi sono state compiute da un essere umano o da un agente AI. L'ottantaquattro percento dubita di poter superare un audit di compliance. Il dieci percento si sente di avere una governance efficace.
Questi numeri non sono astratti. Descrivono la postura attuale della tua organizzazione.
La correzione non è un nuovo documento di policy. È una decisione organizzativa: tratta gli agenti AI come dipendenti, con identità formali, accesso definito, gestione del lifecycle e responsabilità nominata. Il framework Callegari funziona. Le organizzazioni che lo hanno implementato sono il 10% che si sente di avere una governance efficace.
Tutti gli altri sperano che gli agenti si comportino. Questa non è una strategia di governance. È una responsabilità.
La tua enterprise è pronta per l'era della responsabilità degli agenti AI? Parla con Agencie per una valutazione della governance degli agenti AI — inclusa analisi del gap di responsabilità, design del framework di identità e roadmap per trattare gli agenti come dipendenti →