De AI Agent Verantwoordingskloof: 74% van de kenniswerkers gebruikt AI, maar niemand is verantwoordelijk
Dit is de vraag die niemand in uw organisatie kan beantwoorden: welke AI agents hebben welke data geraadpleegd, wanneer, en met wiens autoriteit?
Vandaag — 26 maart 2026 — publiceerde Fortune een studie met Accenture en Wharton die de omvang van het probleem scherp stelt. Bijna 74% van de kenniswerkers gebruikt inmiddels AI. Niet op een goedgekeurde, bestuurde manier. Op de shadow AI-manier: bring-your-own-AI-tools, ingezet door business units, zonder IT-goedkeuring, zonder security-review, zonder gesprek over wat er gebeurt als het misgaat.
Tegelijkertijd publiceerden CSA en Aembit deze week op RSAC 2026 in San Francisco onderzoeksdata onder 228 IT- en securityprofessionals die de organisatorische realiteit nog schrijnender maken. Achtenzestig procent van de organisaties kan AI-agentactiviteit niet duidelijk onderscheiden van menselijke activiteit in hun eigen systemen. Vierentachtig procent twijfelt of ze een compliance-audit gericht op AI-agentgedrag en toegangscontroles zouden doorstaan.
Zevenenzeventig procent van uw kenniswerkers gebruikt AI. Achtenzestig procent van de organisaties kan niet zeggen of de acties in hun eigen systemen door een mens of door een AI agent zijn uitgevoerd. Niemand is hiervoor verantwoordelijk.
Dat is de verantwoordingskloof. En het is geen technologisch probleem. Het is een organisatorisch ontwerpprobleem.
De cijfers achter de verantwoordingskloof
74% van de kenniswerkers gebruikt AI — meesten onbestuurd
Het Accenture- en Wharton Global Products-rapport, vandaag gepubliceerd in Fortune, vormt de anker voor dit gedeelte. James Crowley, co-auteur: "Intelligentie is mogelijk schaalbaar, maar verantwoordelijkheid is dat niet." Deze zin is de these.
De reikwijdte: 120 miljoen werkenden in 18 sectoren. Meer dan 50% van de arbeidsuren in de Amerikaanse economie staat op het spel — onderhevig aan herstructurering door AI agents. Bankieren en kapitaalmarkten: meer dan 45% van de uren beïnvloed door digitale agents. tegen 2028 wordt verwacht dat ongeveer één op de drie bedrijfstoepassingen agentic capabilities zal inbedden.
De bestuurlijke respons op deze implementatie heeft de ontwikkeling niet bijgehouden. De meerderheid van kenniswerkers die AI gebruiken, doet dat via niet-goedgekeurde tools. Business units nemen sneller AI aan dan IT kan evalueren. Security-teams hebben geen zicht op welke agents draaien, wat ze raadplegen, of welke beslissingen ze nemen.
85% heeft agents in productie. 68% kan niet zeggen of het mens of AI is.
Het CSA/Aembit-onderzoek, gepubliceerd op 24 maart 2026 op RSAC 2026 en besproken door Help Net Security op 26 maart, is het operationele tegenwicht bij de Fortune-data.
Vijfentachtig procent van de organisaties heeft AI agents draaien in productieomgevingen. Dat cijfer is consistent met de Accenture+Wharton-bevinding — agents zijn geïmplementeerd, ze zijn operationeel, ze nemen beslissingen.
Maar 68% kan niet duidelijk onderscheid maken tussen door mensen geïnitieerde en door AI-agents geïnitieerde activiteit in hun eigen systemen. Dat is geen klein gat. Dat is een fundamenteel identiteitsprobleem. Als u niet kunt onderscheiden wat een mens heeft gedaan en wat een agent heeft gedaan, kunt u geen acties toeschrijven, verantwoordelijkheid afdwingen of incidenten onderzoeken.
De verontrustende data: 73% verwacht dat AI agents binnen het komende jaar essentieel worden voor hun organisatie. Het implementatietempo versnelt. De bestuurlijke kloof groeit mee.
91% gebruikt agents. 10% heeft effectieve governance.
Het gezamenlijke webinar van Okta en Accenture van 23 januari 2026 gaf ons het tegenwicht qua governance-effectiviteit: 91% van de organisaties gebruikt al AI agents. Slechts 10% meent een effectieve AI-agentgovernancestrategie te hebben.
Tien procent. Dat is het cijfer dat elke CISO vannacht wakker moet houden. Bijna elk bedrijf draait AI agents. Bijna geen van hen heeft werkende governance.
Greg Callegari van Accenture verwoordde de diagnose helder op dat webinar: "Agents handelen als medewerkers, ze voeren taken uit die mensen zouden doen. Dus de manier om ze te beveiligen is door ze te beheren als identiteiten." De organisaties die deze premisse niet hebben geaccepteerd, zijn degene die draaien op 10% governance-effectiviteit.
Waarom niemand AI-agentverantwoordelijkheid bezit
De verantwoordingskloof is niet toevallig. Hij is structureel. De CSA-data maken de versnippering van verantwoordelijkheid zichtbaar: verantwoordelijkheid voor AI-agentgovernance is verspreid over vier groeperingen, waarvan geen een het als primaire taak heeft.
Security: 28%. Ontwikkeling en engineering: 21%. IT: 19%. IAM-teams: 9%.
Negen procent. Het team dat het beste gepositioneerd is om non-humane identiteitsgovernance te beheren — IAM — leidt AI-agentgovernance in slechts 9% van de organisaties. De rest improviseert.
Kevin Werbach van Wharton Accountable AI Lab beschreef de organisatorische dynamiek die dit vacuüm creëert: "Mijn businessprogrammamanager maakt agents en gooit ze de deur uit." Het traditionele IT-releaseproces kan de snelheid waarmee agents intern worden gebouwd niet bijbenen. Tegen de tijd dat een governancereview gepland is, draait de agent al zes weken in productie.
Het resultaat: verantwoordelijkheid die ieders verantwoordelijkheid is en niemands taak. Security denkt dat IAM het bezit. IAM denkt dat security het bezit. Ontwikkeling heeft er een paar gebouwd. Business units hebben anderen gebouwd. Niemand belegde een vergadering om te beslissen wie verantwoordelijk was voor wat er gebeurde als de agent iets onverwachts deed.
Het authenticatieprobleem
De technische dimensie van het verantwoordingsprobleem is even schrijnend.
Uit het Strata Identity- en CSA-onderzoek, gepubliceerd op 5 februari 2026: 44% van de organisaties gebruikt statische API keys om AI agents te authenticeren. Drieënveertig procent gebruikt gebruikersnaam-en-wachtwoordcombinaties. Dit zijn geen legacy-systemen. Dit zijn productie-AI agents, autonoom draaiend, met hetzelfde referentiemodel als het inloggen van een menselijke medewerker.
Statische API keys verlopen niet automatisch. Gebruikersnaam-en-wachtwoordreferenties zijn niet gekoppeld aan een specifieke agentidentiteit. Wanneer een agent wordt gecompromitteerd, blijven die referenties actief totdat iemand ze handmatig intrekt. Eric Olden, CEO van Strata Identity: "Statische referenties, handmatige provisioning en gefragmenteerd beleid kunnen de snelheid en autonomie van agentic systems niet bijbenen."
Eenendertig procent van de organisaties staat toe dat AI agents opereren onder menselijke gebruikersidentiteiten. Dat betekent dat de agent dezelfde referenties gebruikt als een specifieke medewerker — niet een service-identiteit, niet een agent-identiteit, maar de inlog van een echte mens. Wanneer er iets misgaat, toont het auditlogboek een naam van een mens. De mens zat op dat moment in een vergadering.
De beveiligingsimplicaties — Wanneer agents doorslaan
De verantwoordingskloof is niet alleen een compliance-probleem. Het is een beveiligingsrisico.
De CSA/Aembit-data: 74% van de organisaties meldt dat AI agents vaak meer toegang krijgen dan nodig voor hun specifieke taak. Negenenzeventig procent zegt dat agents nieuwe toegangspaden creëren die moeilijk te monitoren zijn. Dit zijn geen uitzonderingsgevallen. Dit is de operationele norm.
Een AI agent met te ruime permissies, autonoom opererend over meerdere systemen, is de definitie van uitgebreid attack surface. Het is geen kwaadwillige insider. Het is geen externe aanvaller. Het is een autonoom systeem dat precies doet waarvoor het is ontworpen — met toegang die niemand correct heeft bepaald.
Het prompt manipulation-risico verergert dit. Eenentachtig procent van de organisaties is het ermee eens: prompt manipulation kan een AI agent ertoe brengen gevoelige referenties of tokens prijs te geven. De agent gebruikt echte referenties via een echte toegangspad. Er is geen malware geplaatst. Er is geen exploitcode gebruikt. De agent is gemanipuleerd om tegen de belangen van de organisatie te handelen via dezelfde interface die het zou moeten gebruiken.
Arize publiceerde "100 AI Agents Per Employee" op 21 maart 2026. Jensen Huang's voorspelling: ongeveer 100 AI agents per medewerker bij grote ondernemingen binnen enkele jaren. McKinsey's huidige schatting: 25.000 agents die naast 60.000 mensen werken bij een typische grote onderneming. Doe die rekensom eens door uw organisatie. Elke agent heeft een bepaald niveau van systeemtoegang. De meesten hebben meer dan ze nodig hebben. De meesten worden niet gemonitord. De meesten opereren onder referenties die niemand heeft bepaald.
Dat is geen beveiligingshouding. Dat is een attack surface die wacht op een trigger.
De governance-oplossing — Behandel AI Agents als medewerkers
Greg Callegari's framework uit het Okta-webinar is het meest actionable governance-principe dat ik voor AI agents heb horen verwoorden: "Agents hebben hun eigen identiteit nodig. Zodra u dat accepteert, volgt de rest — toegangscontrole, governance, auditing en compliance."
Behandel AI agents als medewerkers. Niet metaforisch. Operationeel.
Geen enkele organisatie zou een medewerker aannemen, ze admin-referenties geven voor elk systeem, en hopen op het beste. Ze zouden een rol definiëren. Least-privilege afdwingen. Activiteit monitoren. Bepalen wie verantwoordelijk is wanneer er iets misgaat.
AI agents hebben precies dezelfde behandeling nodig. Zo ziet dat er in de praktijk uit.
Stap 1: Geef elke agent zijn eigen formele identiteit
Geen gedeelde serviceaccount. Geen inlog van een menselijke medewerker. Een onderscheiden, toeschrijfbare identiteit — met zijn eigen referenties, zijn eigen toegangsscope en zijn eigen eigenaarschapsketen.
Dit is de fundering. Elke andere governancestap hangt ervan af. Zonder agentniveau-identiteit kunt u geen acties toeschrijven, toegangscontroles afdwingen of betekenisvol incidentenonderzoek uitvoeren.
Stap 2: Bepaal toegang zoals u toegang bepaalt voor een nieuwe medewerker
Definieer exact waartoe elke agent toegang moet hebben, voor exact welke taken. Agents moeten opereren op least-privilege-toegang — exact wat hun functie vereist, niets meer.
De CSA-data — 74% van de agents ontvangt meer toegang dan nodig — weerspiegelen de huidige standaard: agents krijgen brede toegang omdat het makkelijker te configureren is. Dat is dezelfde redenering die het excessive permissions-probleem voor menselijke medewerkers in de jaren negentig creëerde. We losten het toen op met role-based access control. We moeten het nu oplossen voor AI agents.
Stap 3: Definieer agentlevenscyclusbeheer
Agents hebben startdatums. Agents hebben reviewperiodes. Agents hebben einddatums.
Wanneer de toegewezen taak van een AI agent is voltooid, moet de toegang worden herzien en, indien gepast, worden ingetrokken. Wanneer een agent buiten gebruik wordt gesteld, moet zijn identiteit formeel worden gepensioneerd — hetzelfde als wanneer een medewerker vertrekt.
De meeste organisaties hebben geen agentlevenscyclusproces. De meeste agents draaien totdat er iets breekt of niemand zich herinnert dat ze bestaan. De agents die onbepaald blijven draaien met actieve referenties worden de security-incidenten.
Stap 4: Continue monitoring en toeschrijving
Agentgedrag moet worden gelogd, worden toegeschreven aan een specifieke agentidentiteit, en continu worden gemonitord — niet na een incident worden herzien, maar worden gevolgd in realtime als standaard operationele praktijk.
Dit is waar de 68% — organisaties die agentactiviteit niet van menselijke activiteit kunnen onderscheiden — moet beginnen. U kunt niet monitoren wat u niet kunt onderscheiden. Bouw eerst de toeschrijvingsinfrastructuur.
Stap 5: Wijs één eigenaar aan met volledige verantwoordelijkheid
De versnippering van eigenaarschap — security 28%, ontw/eng 21%, IT 19%, IAM 9% — is de structurele reden waarom governance faalt. Governance zonder een benoemde eigenaar is governance zonder handhaving.
Één team zou AI-agentgovernance moeten bezitten. Voor de meeste organisaties is dat IAM — het team dat al verantwoordelijk is voor non-humane identiteitsmanagement. Voor anderen kan dat security zijn. Het specifieke team doet er minder toe dan het principe: één eigenaar, met expliciete verantwoordelijkheid, met autoriteit om beleid af te dwingen.
De verantwoordingszelfevaluatie — 8 vragen die elke executive zou moeten kunnen beantwoorden
Gebruik deze acht vragen om te beoordelen waar uw organisatie staat. Een "nee" of "ik weet het niet" op de meeste hiervan is een diagnose, geen vonnis.
1. Welk percentage van de AI agents die in uw productieomgeving draaien, heeft een formeel IT- en security-review doorlopen voordat ze werden uitgerold?
Als het antwoord "de meeste" of "ik weet het niet" is, heeft u een governance-probleem. De Accenture+Wharton-data suggereren dat het laatste het geval is.
2. Kunt u in realtime onderscheiden welke acties in uw systemen door een mens versus door een AI agent zijn uitgevoerd?
Als nee, kunt u geen acties toeschrijven, incidenten onderzoeken of compliance-audits uitvoeren. De 68% die geen onderscheid kan maken, is uw vergelijkingsgroep.
3. Wie bezit AI-agentgovernance in uw organisatie?
Als het antwoord het woord "wij" bevat — zoals in "wij doen het allemaal" — bezit niemand het. Eigenaarschap vereist één naam.
4. Welk percentage van uw AI agents opereert onder hun eigen formele identiteit versus een gedeelde serviceaccount of de referenties van een menselijke medewerker?
Als de meeste agents gedeelde referenties gebruiken, kunt u acties niet aan specifieke agents toeschrijven. U kunt gedeelde referenties niet intrekken zonder elke agent te beïnvloeden die ze gebruikt.
5. Zou u een compliance-audit kunnen doorstaan die specifiek gericht is op AI-agentgedrag en toegangscontroles?
De CSA-data: 84% van de organisaties twijfelde of ze dat zouden kunnen. Als uw antwoord iets anders dan "ja" is, is de kloof uw blootstelling.
6. Hebben uw AI agents gedefinieerde toegangsscoopes — of hebben ze meer toegang dan hun specifieke taken vereisen?
Als agents blanket-toegang tot systemen hebben in plaats van taakspecifieke toegang, heeft u het 74%-probleem — verhoogde permissies die onnodig attack surface creëren.
7. Wat gebeurt er met de toegang van een AI agent wanneer zijn toegewezen taak is voltooid?
Als het antwoord "het blijft draaien" is, heeft u agents met actieve referenties en geen gedefinieerd eindstadium. Dat is het levenscyclusprobleem.
8. Hebt u een incidentresponseplan dat specifiek is voor een gecompromitteerde AI agent?
Als het antwoord is "we zouden het aanpakken als elk ander security-incident", hebt u geen AI-specifiek plan. Een gecompromitteerde agent opereert anders dan gecompromitteerde menselijke referenties — uw respons zou dat moeten weerspiegelen.
Conclusie
De verantwoordingskloof is geen technologisch gat. Het is een organisatorisch ontwerpgat.
Zevenenzeventig procent van de kenniswerkers gebruikt AI. Achtenzestig procent van de organisaties kan niet zeggen of de acties in hun eigen systemen door een mens of door een AI agent zijn uitgevoerd. Vierentachtig procent twijfelt of ze een compliance-audit zouden kunnen doorstaan. Tien procent meent effectieve governance te hebben.
Deze cijfers zijn niet abstract. Ze beschrijven de feitelijke houding van uw organisatie op dit moment.
De oplossing is geen nieuw beleidsdocument. Het is een organisatorische beslissing: behandel AI agents als medewerkers, met formele identiteiten, bepaalde toegang, levenscyclusbeheer en named accountability. Het Callegari-framework werkt. De organisaties die het hebben geïmplementeerd, zijn het 10% dat meent dat hun governance effectief is.
De rest hoopt dat de agents zich gedragen. Dat is geen governancestrategie. Dat is een aansprakelijkheid.
Is uw onderneming klaar voor het AI-agentverantwoordings tijdperk? Praat met Agencie voor een AI-agent governance-evaluatie — inclusief verantwoordingskloofanalyse, identiteitsframeworkontwerp en een routekaart naar het behandelen van agents als medewerkers →