Human-in-the-Loop AI — De EU AI Act en NIST-vereisten die daadwerkelijk gelden voor agent deployments
De EU AI Act en het NIST AI Risk Management Framework zijn geen suggesties. Het zijn geen best practices die je kunt negeren terwijl je je agentstrategie uitwerkt. Voor ondernemingen die AI-agents inzetten, vereisen beide kaders nu hetzelfde: aantoonbaar menselijk toezicht dat getraind, meetbaar en verifieerbaar is. En voor hoogrisico AI-systemen gaat deze eis in op 2 augustus 2026.
De meeste ondernemingen die menselijk toezicht als een bestuurlijke keuze behandelen, voldoen nu al niet aan de nalevingsvereisten. Dit blog is de praktische handleiding voor wat de kaders daadwerkelijk vereisen en hoe je hiervoor een architectuur ontwerpt vóór de augustusdeadline.
De Drie Kaders — EU AI Act, NIST AI RMF en ISO/IEC 42001
Drie kaders regelen AI-toezicht voor ondernemingen in 2026. Ze verschillen in oorsprong en juridische status, maar ze convergéren op dezelfde kernvereiste.
EU AI Act: De meeste bepalingen treden in werking op 2 augustus 2026. Artikel 14 vereist menselijk toezicht voor hoogrisico AI-systemen. Het toezicht moet betekenisvol, effectief en ingebouwd zijn in het systeem — niet een achteraf review nadat de agent al heeft gehandeld. Hoogrisicocategorieën omvatten arbeidsbeslissingen, krediet- en financiële beslissingen, kritieke infrastructuurbeheer en rechtshandhavings-toepassingen. Boetes voor niet-naleving kunnen oplopen tot 3% van de wereldwijde jaaromzet. Als je klanten of medewerkers in de EU hebt, is de Act van toepassing ongeacht waar je bedrijf is gevestigd.
NIST AI RMF: Vrijwillig in de Verenigde Staten, maar steeds vaker verplicht door federale contracten en staatsregulering. De Govern-functie specificeert dat menselijk toezicht op AI-systemen moet worden gehandhaafd via passende mechanismen. Het sleutelwoord is aantoonbaar: je moet kunnen aantonen wie welk besluit heeft genomen, met welke autoriteit en met welke informatie beschikbaar was op het moment van besluitvorming.
ISO/IEC 42001: De eerste wereldwijde standaard voor AI-managementsystemen, gepubliceerd in 2023. Certificering toont volwassenheid in AI-governance en sluit aan op NIST AI RMF wat betreft de toezichtvereisten.
Het convergentiepunt: alle drie vereisen menselijk toezicht dat ingebouwd is, niet achteraf toegevoegd. Voor AI-agents betekent dit HITL-architectuur — de mens moet in het uitvoeringspad zitten vóór hoogrisico-acties, niet achteraf reviewen.
Wat Aantoonbaar Menselijk Toezicht Daadwerkelijk Betekent voor AI-Agents
De meeste ondernemingen denken dat menselijk toezicht betekent dat een manager af en toe controleert wat de agent heeft gedaan. Dat is niet wat de kaders vereisen. Aantoonbaar betekent vier dingen.
Geïdentificeerde mens: Welke specifieke persoon heeft de actie goedgekeurd? Niet "een mens" — een benoemde persoon met gedocumenteerde autoriteit om dat besluit te nemen.
Tijdgebonden: Binnen welk tijdsbestek hebben zij goedgekeurd? De goedkeuring moet hebben plaatsgevonden vóór de actie, en de verstreken tijd moet worden gelogd.
Verdedigbare rationale: Welke informatie had die mens toen zij goedkeurden? Ze hadden voldoende context nodig om een gefundeerd besluit te nemen — niet alleen de output van de agent, maar de redenering en de relevante data.
Audit trail: Elke goedkeuring, afwijzing en wijziging moet worden gelogd en ophaalbaar zijn. Als een toezichthouder vraagt wat er is gebeurd bij een specifieke agent-actie op een specifieke datum, moet je het kunnen reconstrueren.
Het handhavingsmechanisme is identity governance. Identity governance verbindt AI-agent acties aan identiteitsbeleid zodat de agent niet kan handelen zonder een menselijke identiteit gekoppeld aan de autorisatie. Het pauzeert agent-uitvoering totdat een benoemde mens goedkeurt. Het routeert goedkeuringsverzoeken naar de correcte gemachtigde persoon op basis van het actietype en je organisatiebeleid. Het handhaaft tijdgebonden besluitvensters. En het logt elke interventie voor audit.
Zonder identity governance heb je een beleid. Met identity governance heb je een compliant architectuur.
De Hoogrisicocategorieën Die Verplicht HITL Triggeren
Als je AI-agents een van deze workflows raken, is HITL niet optioneel. Het is wettelijk verplicht onder de EU AI Act.
Arbeidsbeslissingen: CV-screening, kandidaatbeoordeling, prestatiebeoordeling, promotieaanbevelingen.
Financiële beslissingen: Kredietscoring, lening underwriting, verzekerings underwriting, risicobeoordeling.
Essentiële diensten: Toegang tot onderwijs, huisvesting, overheidsdiensten.
Kritieke infrastructuur: Energiegridbeheer, waterbehandeling, vervoerssystemen.
Rechtshandhaving: Gezichtsherkenning, predictieve toezichttools, bewijsanalyse.
De praktische HITL-triggerlijst voor de meeste ondernemingen: agents die communicatie versturen namens het bedrijf, agents die medewerker- of klantrecords wijzigen, agents die financiële transacties goedkeuren of afwijzen, agents die persoonsgegevens op schaal verwerken, en agents in gereguleerde industrieën waaronder financiën, gezondheidszorg en juridisch.
Zelfs als je niet in de EU zit: als je klanten in de EU bedient of EU-bewoners in dienst hebt, is de EU AI Act van toepassing op die interacties.
De HITL Architecture Stack
Het bouwen van compliant HITL vereist vijf infrastructuurcomponenten.
Identiteitslaag: Je identity provider geïntegreerd met je agent orchestration platform. De agent kan niet handelen zonder een geverifieerde menselijke identiteit gekoppeld aan de autorisatie.
Beleidsengine: Definieert welke agent-acties HITL vereisen op basis van risicocategorisatie. Laagrisico-acties gaan door zonder pauze. Gemiddeld-risico triggert monitoring met alert. Hoogrisico triggert volledige pauze-en-goedkeuring.
Goedkeuringsrouter: Routeert het verzoek naar de correcte gemachtigde mens op basis van actietype, afdeling en identiteitsbeleid.
Tijd-box handhaving: Elk goedkeuringsverzoek heeft een SLA-klok. Als de mens niet reageert binnen het venster, vervalt het verzoek en escaleert de agent.
Audit log: Onveranderlijk record van elke goedkeuring, afwijzing, wijziging en verval. Legt de identiteit van de mens vast, tijdstempel, beschikbare informatie en uitkomst.
Wat auditors specifiek zullen vragen: de identiteit van de mens die elke hoogrisico-actie heeft goedgekeurd, de informatie beschikbaar voor hen op het moment van goedkeuring, de verstreken tijd tussen verzoek en goedkeuring, en wat er is gebeurd toen een mens niet reageerde binnen het tijdvenster.
De Nalevingsdeadline van Augustus 2026
De meeste bepalingen van de EU AI Act treden in werking op 2 augustus 2026. Boetes zijn van toepassing vanaf die datum: tot 3% van de wereldwijde jaaromzet voor overtredingen.
De nalevingskloof voor de meeste ondernemingen is significant. De meeste organisaties die agents vandaag de dag inzetten, hebben geen HITL-architectuur. Ze hebben een menselijk reviewproces dat niet zou voldoen aan de vereisten van Artikel 14 dat toezicht betekenisvol, effectief en ingebouwd moet zijn.
HITL-architectuur bouwen nadat agents al in productie zijn, is moeilijker dan het van tevoren bouwen. De agents moeten worden aangepast om pauze-en-goedkeuring workflows te ondersteunen. Het identiteitsbeleid moet worden gedefinieerd. De gemachtigde mensen moeten worden aangewezen en getraind. Dit parallel doen met het draaien van agents in productie creëert operationeel risico.
De drie-staps nalevingsbouw:
Ten eerste, breng je agents in kaart. Welke raken hoogrisico workflows? Deze inventarisatie wordt je HITL-implementatie-roadmap.
Ten tweede, wijs gemachtigde mensen aan. Welke mensen kunnen welke acties goedkeuren? Dit is een organisatorische ontwerpvraag, geen IT-vraag.
Ten derde, bouw de HITL-infrastructuur. Identiteitsbinding, goedkeuringsroutering, tijdboxing, audit logging. De infrastructuur moet op zijn plaats zijn vóór de augustusdeadline.
Begin met de inventarisatie. Als je AI-agents in productie hebt en geen HITL-nalevingsarchitectuur hebt, heb je ongeveer vier maanden.