Terug naar blog
AI Security2026-03-319 min read

Shadow AI is het Grootste AI-risico voor Organisaties — En de Meesten Weten Niet Dat Ze Ermee Te Maken Hebben

90% van de ondernemingen maakt zich zorgen. 80% heeft al negatieve AI-gerelateerde dataincidenten meegemaakt. En de agents die in productie draaien, zijn mogelijk nooit goedgekeurd door iemand in IT. Dit is wat er aan de hand is — en wat je kunt doen voordat het jouw compliancecrisis wordt.


Wat Shadow AI eigenlijk is — en waarom het niet hetzelfde is als Shadow IT

De terminologie wordt voortdurend door elkaar gehaald, en de verwarring is gevaarlijk.

Shadow IT is ongeautoriseerde software — de SaaS-apps waar medewerkers zonder IT-goedkeuring voor aanmelden, het persoonlijke Dropbox-account dat wordt gebruikt om werkbestanden te delen, de ongecontroleerde browserextensies die op werklaptops worden geïnstalleerd. Shadow IT is een reëel probleem, maar het heeft een fundamentele beperking: de niet-geautoriseerde software vereist nog steeds een mens om deze te bedienen. Data vertrekt wanneer een persoon besluit deze te verplaatsen.

Shadow AI is fundamenteel anders. Shadow AI zijn ongeautoriseerde AI agents, LLM's en AI-workflows die buiten IT-governance opereren — en in tegenstelling tot Shadow IT kunnen deze systemen autonoom handelen. Ze kunnen je data lezen, kopiëren, verzenden en acties uitvoeren in systemen zonder dat een mens elke stap expliciet aanstuurt.

Het onderscheid is belangrijk omdat het de risicoprofilering volledig verandert. Een medewerker die een niet-geautoriseerde SaaS-tool gebruikt om een bestand op te slaan, is een data-exposure risico. Een AI agent van een medewerker die getraind is op je interne documentatie, API-toegang heeft tot je CRM en klantdata verwerkt via een persoonlijke LLM-API — dat is een autonoom actor die opereert op je infrastructuur zonder jouw medeweten of toestemming.

De categorie heeft zich sneller ontwikkeld dan de meeste enterprise security-teams hebben geregistreerd. In 2024 ging Shadow AI vooral om medewerkers die ChatGPT gebruikten om documenten te schrijven. In 2025 en 2026 gaat het steeds meer om medewerkers die AI agents deployen — autonome workflows die kunnen plannen, tools kunnen gebruiken, meerstapsprocessen kunnen uitvoeren en acties kunnen ketenen over enterprise-systemen. Een medewerker die een AI agent opzet om zijn inkoopgoedkeuringen, klantondersteuningsrouting of rapportgeneratie af te handelen, heeft mogelijk geen idee dat de agent opereert met toegang tot systemen die nooit voor dat doel zijn geautoriseerd.

De medewerkers handelen niet per se kwaadwillig. De meeste Shadow AI-deployments beginnen vanuit een oprechte productiviteitsmotivatie — iemand vond een tool die hen twee uur per dag bespaart en zette deze op zonder na te denken over de data-access-implicaties. Het probleem is dat de implicaties reëel zijn, het bewustzijn laag is, en de agents blijven draaien of iemand nu over het risico heeft nagedacht of niet.


De cijfers — Hoe erg is het echt

De data van enterprise IT-leiders is consistent en zorgwekkend.

Het Komprise 2025 IT Survey — uitgevoerd onder 200 Amerikaanse IT-directeurs en executives bij organisaties met meer dan 1.000 medewerkers — toonde aan dat 90% van de ondernemingen zich zorgen maakte over Shadow AI vanuit een privacy- en beveiligingsperspectief. Dat is geen marginaal punt van bange IT-teams. Dat is een vrijwel universele erkenning van het risico.

Het nog opvallendere cijfer: bijna 80% van diezelfde ondernemingen meldde al negatieve AI-gerelateerde dataincidenten te hebben meegemaakt. Geen hypothese. Geen bijna-incident. Een daadwerkelijk incident met ongeautoriseerde AI-tools op enterprise data.

Van die ondernemingen ondervond 13% financiële, klant- of reputatieschade — meetbare schade door een AI-incident dat het management nooit heeft goedgekeurd of zelfs maar over heeft geweten. Dat cijfer is waarschijnlijk een onderschatting, aangezien veel ondernemingen de detectiecapaciteit niet hebben om te weten wanneer een AI-gerelateerd incident heeft plaatsgevonden.

Gartner's onderzoek voegt de vooruitziende dimensie toe. Hun analisten voorspellen dat tegen 2030 ongeveer 40% van de ondernemingen te maken krijgt met AI-complianceincidenten — en de primaire oorzaak die wordt genoemd, is datalekage via Shadow AI-kanalen, inclusief wat Gartner "shadow humanizers" noemt: tools die medewerkers gebruiken om enterprise data te verwerken via persoonlijke LLM's op een manier die die data buiten de controle van de onderneming plaatst.

Reële voorbeelden van hoe dit er in de praktijk uitziet: medewerkers die enterprise data routeren via messagingplatforms zoals Telegram naar persoonlijke LLM-API's. Niet-goedgekeurde AI agents die inkoopworkflows afhandelen met toegang tot leveranciersbeheersystemen. Sales teams die AI-tools gebruiken om klantcommunicatie te schrijven die wordt opgeslagen in het systeem van de vendor in plaats van dat van de onderneming. De gemene deler is dat niemand in IT deze tools heeft goedgekeurd, en dat niemand in IT weet dat de data het gebouw heeft verlaten.

De compliance-implicaties stapelen zich op wanneer je gereguleerde data in de vergelijking meeneemt. Zorgorganisaties die PHI verwerken via niet-geautoriseerde AI-tools kunnen in overtreding zijn van HIPAA-vereisten. Financiële dienstverleners die klantdata routeren via persoonlijke AI-API's kunnen in overtreding zijn van data residency- en verwerkingsvereisten. De medewerkers die dit doen, proberen zelden bewust compliancekaders te omzeilen — ze proberen hun werk sneller te doen. Maar de compliance-exposure is reëel, ongeacht de intentie.


Waarom traditionele governance hier faalt

De meeste ondernemingen hebben al een vorm van AI-governance. Deze is meestal gebouwd voor het verkeerde dreigingsmodel.

Het typische AI-governance-framework gaat uit van een gesanctioneerde tool — iets dat IT heeft geëvalueerd, goedgekeurd en gedeployed. Het specificeert welke AI-modellen de organisatie mag gebruiken, op welke data ze getraind mogen worden, en welke audit trails er moeten worden bijgehouden. Dit is noodzakelijke governance. Het is ook governance die geen handhavingsmechanisme heeft voor het Shadow AI-probleem, omdat Shadow AI specifiek betekent dat AI-tools nooit zijn gesanctioneerd, nooit zijn geëvalueerd en nooit zijn geweten.

De kloof tussen de snelheid van medewerker-AI-adoptie en de snelheid van IT-goedkeuring is structureel. Medewerkers kunnen in minuten een AI agent opzetten, deze verbinden met hun werkemail en laten beginnen met het verwerken van hun workflow voordat IT überhaupt de goedkeuringsaanvraag heeft ontvangen. De tools om dit te doen zijn gratis, consumer-grade en vereisen geen technische kennis. Het goedkeuringsproces voor nieuwe enterprise-software duurt weken of maanden. Medewerkers die sneller willen werken, gaan niet wachten tot IT een security-review heeft afgerond.

De agentic AI-amplificatie verergert dit probleem aanzienlijk. Traditionele AI-governance was ontworpen voor chat-interfaces en documentgeneratie — AI die outputs produceert die een mens beoordeelt vóór gebruik. AI agents zijn anders: ze plannen, gebruiken tools, voeren autonoom meerstapsworkflows uit. Een medewerker die een AI agent opzet om zijn klantonboarding-workflow af te handelen, heeft die agent de mogelijkheid gegeven om klantdata te lezen, CRM-records bij te werken, emails te versturen en beslissingen te nemen — allemaal zonder dat een mens elke stap beoordeelt. De snelheid en autonomie van AI agents is fundamenteel mismatch met governance-processen die zijn ontworpen voor human-in-the-loop AI-tools.

De security-stack heeft hier blinde vlekken. Enterprise security-infrastructuur — endpoint detection and response (EDR), secure access service edge (SASE), firewalls, identity management — genereert significante signalen met betrekking tot AI-toolgebruik. Gebruikers benaderen AI-services vanaf corporate netwerken. Data beweegt naar AI-serviceproviders' API's. Credentials voor AI-services worden gebruikt op endpoints. Maar de security-stack was niet gebouwd om deze signalen te correleren tot een coherent beeld van Shadow AI-exposure, en de meeste security-teams hebben niet de tooling om te handelen op de signalen die ze al genereren.

De accountability-kloof is misschien wel het meest onopgeloste stuk. Wanneer een Shadow AI-incident schade veroorzaakt — een datalek, een compliance-schending, een klantrecord naar de verkeerde plaats gestuurd — wie is verantwoordelijk? De medewerker die de agent heeft opgezet? De manager van de medewerker? IT, voor het niet hebben van governance die dit zou hebben opgevangen? De CISO, voor het niet hebben van detectiecapaciteit? Huidige enterprise governance-frameworks hebben geen duidelijke antwoorden op deze vragen. De praktische default tendens is diffuse accountability, wat betekent dat het niemands specifieke accountability is — wat betekent dat het niet wordt opgelost.


Het agentic Shadow AI-probleem wordt erger

De eerste golf van Shadow AI ging vooral om medewerkers die consumer LLM-interfaces gebruikten om documenten te schrijven, vragen te beantwoorden en informatie samen te vatten. Vervelend, maar beheersbaar, omdat er altijd een mens in de loop zat.

De tweede golf — degene die de eigenlijke crisis is — gaat over AI agents die autonoom opereren in enterprise workflows. Dit is waar het risico overgaat van "dataprivacy" naar "operationele exposure," en waar de governance-kloof kritiek wordt.

De infrastructuur voor het deployen van persoonlijke AI agents is triviaal eenvoudig geworden. Model Context Protocol (MCP)-servers, die AI agents in staat stellen om verbinding te maken met externe tools en databronnen, worden opgezet door niet-technische medewerkers zonder IT-betrokkenheid. API-keys voor AI-services worden aangemaakt op persoonlijke accounts. Medewerkers bouwen agents die draaien op persoonlijke infrastructuur, met persoonlijke subscriptions voor AI-services, met toegang tot corporate systemen geverifieerd via credentials die de onderneming niet kent.

Het resultaat is een groeiende populatie AI agents die opereren buiten de zichtbaarheid en controle van de onderneming — niet omdat de onderneming heeft gefaald om governance te bouwen, maar omdat de agents zijn opgezet door mensen die niet wisten dat ze governance-goedkeuring nodig hadden. Een medewerker die een AI agent heeft gebouwd om de IT-ticketrouting van zijn team af te handelen, heeft zonder het te weten een autonoom systeem gecreëerd met toegang tot interne IT-systemen, gebruikerscredentials en organisatiedata. De agent draait in het weekend, verwerkt tickets en escaleert wat hij niet kan afhandelen. Niemand in IT weet dat het bestaat.

De operationele exposure stapelt zich op in de loop van de tijd. Hoe langer een ongegovernede AI agent opereert, hoe meer deze ingebed raakt in bedrijfsprocessen. Andere medewerkers beginnen erop te vertrouwen. Afhankelijkheden vormen zich. Wanneer er iets misgaat — de agent maakt een fout, de persoonlijke service waarop hij is gebouwd wijzigt zijn API-terms, de subscription van de medewerker vervalt — is de verstoring reëel en wordt de governance-kloof zichtbaar onder druk.

Security-teams beginnen deze dynamiek te herkennen. ArmorCode en vergelijkbare AI governance-platforms hebben het probleem beginnen te framen als een "AI exposure management"-uitdaging: de AI-risicosignalen zijn aanwezig in je huidige security-stack, maar geen enkel team is eigenaar ervan of heeft de tooling om erop te handelen. Het security-team ziet het netwerkverkeer naar AI-services. Het IT-team weet niet welke agents draaien op welke endpoints. Het data governance-team weet niet welke data is verwerkt door welke AI-systemen. De accountability voor AI-risico is verdeeld over hen allemaal en geconcentreerd in geen van hen.


Wat echt werkt — Een governance-framework

De ondernemingen die意义volle vooruitgang boeken op Shadow AI-governance, behandelen het niet als een technologisch probleem. Ze behandelen het als een workforce- en beleidsprobleem met technologie als enabler. Vijf componenten verschijnen consistent in effectieve frameworks.

1. AI Amnesty-programma's — Ontdek wat je al hebt

De meest direct bruikbare stap is het creëren van een veilig openbaarmakingsmechanisme voor medewerkers die al niet-geautoriseerde AI-tools gebruiken. Een AI Amnesty-programma leent van de logica van vrijwillige openbaarmakingsframeworks: medewerkers die het gebruik van ongeautoriseerde AI-tools melden binnen een gedefinieerd venster, ontvangen assistentie bij de overgang naar gesanctioneerde alternatieven, zonder bestraffing voor de initiële niet-openbaarmaking.

De logica is pragmatisch. Veel medewerkers die Shadow AI-tools gebruiken, doen dat omdat ze iets hebben gevonden dat hen echt helpt om hun werk beter te doen, niet omdat ze proberen corporate governance te omzeilen. Als de organisatie reageert op openbaarmaking door medewerkers te straffen, stopt de openbaarmaking en blijven de tools draaien. Als de organisatie reageert door gesanctioneerde alternatieven aan te bieden en hulp bij de overgang, is de verkregen zichtbaarheid meer waard dan het governance-falen dat eraan voorafging.

2. Inventariseer alles — Continu AI exposure management

Ontdekking kan geen eenmalige gebeurtenis zijn. Het AI-tooling-landschap verandert te snel, en door medewerkers gedeployde agents verschijnen continu. Effectieve Shadow AI-governance vereist continue inventarisatie: elke AI-tool, model, API-key, MCP-server en agentic workflow die toegang heeft tot enterprise data of systemen.

Dit is technisch niet triviaal, maar niet onmogelijk. Netwerkverkeeranalyse kan AI-service API-calls identificeren. Endpoint detection kan AI-agent-processen markeren die draaien op corporate hardware. Identity governance kan API-credentials aan het licht brengen die buiten normale provisioning-kanalen zijn uitgegeven. De sleutel is het correleren van deze signalen tot een AI-assetinventaris die het security-team daadwerkelijk kan gebruiken.

3. Govern de agents, niet alleen de modellen

AI governance-frameworks gebouwd rond "welke AI-modellen mogen worden gebruikt" missen het eigenlijke probleem, namelijk "welke AI-agents mogen opereren op onze systemen en met welke toegang." De governance-vraag moet verschuiven van model-level goedkeuring naar agent-level autorisatie.

AI agents behandelen als onderdeel van de workforce is de bruikbare analogie. Agents hebben gedefinieerde rollen, toegangsrechten, escalatiepaden en audit trails nodig — hetzelfde governance-framework dat je zou toepassen op een menselijke werknemer met equivalente toegang. Een agent die klantdata verwerkt, heeft dezelfde toegangscontroles en monitoring nodig als een menselijke medewerker die hetzelfde werk doet.

4. Integreer met de bestaande security-stack

AI governance die opereert in een silo ten opzichte van de bestaande security-infrastructuur, is governance die niet zal worden gehandhaafd. De signalen voor Shadow AI zijn al aanwezig in je security-stack — ze worden alleen niet gecorreleerd of er wordt niet op geacteerd.

EDR-data kan AI-agent-processen markeren die draaien op endpoints. SASE-infrastructuur kan niet-gesanctioneerde AI-service-toegang identificeren. Identity management-systemen kunnen API-credentials aan het licht brengen die buiten normale provisioning zijn uitgegeven. Wanneer deze signalen worden gevoed naar een AI governance-platform dat ze kan correleren en erop kan acteren — in plaats van in aparte tools te zitten — krijgt de organisatie zichtbaarheid die ze eerder niet had.

5. Stel een AI Acceptable Use Policy op — en handhaaf deze

De meeste ondernemingen hebben een AI acceptable use policy. De meeste zijn geschreven als beleidsdocumenten die medewerkers moeten erkennen, niet als technische controles die beleidsschendingen voorkomen. Een beleid dat zegt "stuur geen klantdata naar niet-gesanctioneerde AI-services" is noodzakelijk maar niet voldoende als er geen technisch mechanisme is om te detecteren of te voorkomen dat die data vertrekt.

Effectieve AI acceptable use governance vereist beide: een duidelijk beleid dat verwachtingen vestigt, en technische controles die deze handhaven. Web proxies die AI-servicedomeinen blokkeren op managed devices. Data loss prevention-regels die gevoelige data markeren die naar AI-service-endpoints beweegt. API gateway-controles die gesanctioneerde AI-service-toegang vereisen. Het beleid vestigt de verwachting. De technische controles voorkomen de schending.

De EY Responsible AI Principles bieden een bruikbaar framework voor de beleidslaag: AI-systemen moeten transparant zijn in hoe ze opereren, verantwoordelijkheid hebben naar gedefinieerde eigenaren, en onderworpen zijn aan dezelfde risicobeheerprincipes als elk ander enterprise-systeem. Deze principes zijn van toepassing op Shadow AI-governance, ongeacht of de tools door IT zijn gesanctioneerd of door medewerkers zijn gedeployed.


Onderzoekssynthese door Agencie. Bronnen: Komprise 2025 IT Survey, Gartner (AI-governancevoorspellingen tot 2030), EY Responsible AI Principles. Alle geciteerde bronnen zijn publicaties uit 2025-2026.

Ready to let AI handle your busywork?

Book a free 20-minute assessment. We'll review your workflows, identify automation opportunities, and show you exactly how your AI corps would work.

From $199/month ongoing, cancel anytime. Initial setup is quoted based on your requirements.