De 10-Agent-drempel — Waarom schalen voorbij 10 AI-agents alles verandert
Er gaat iets stuk bij 10
Niet de technologie. De organisatorische en monitoring-infrastructuur errond.
De eerste vijf agenten zijn rechttoe-rechtaan — elke agent doet één ding, heeft een duidelijke eigenaar, is traceerbaar. De zesde tot en met negende zijn nog te behappen. Bij de tiende merkt iemand meestal dat er iets is verschoven, maar kan niet goed verwoorden wat. Bij de vijftiende zitten ze in productiecrisismodus — cascaderende fouten die niet te traceren zijn, facturen die niet te rechtvaardigen zijn, en een monitoring setup die meer ruis dan signaal produceert.
De Google Cloud data verklaart waarom: 52% van de AI-adopters heeft agenten in productie. 39% heeft meer dan 10 agenten uitgerold. Het probleem is dat er vrijwel geen praktische richtlijnen bestaan voor wat er verandert bij die drempel. Het content-ecosysteem behandelt het uitrollen van één tot vijf agenten tot in de details. Het valt eraf als een klif precies op het moment dat de echte engineering begint.
Dit gaat over dat klif.
Wat de Data Daadwerkelijk Toont
De Google Cloud ROI report voor 2025 heeft twee cijfers die in elke CTO-briefing zouden moeten staan.
52% van de organisaties met AI-deployments heeft de pilot-fase gepasseerd. Dat is niet langer experimenteel — dat is productie-infrastructuur.
39% heeft de grens van 10 agenten gepasseerd.
De kloof tussen die twee cijfers is waar de meeste gefaalde deployments zich bevinden. De stap van één enkele agent naar vijf is een goed begrepen journey. De stap van negen naar twaalf is een ander probleem, en bijna niemand schrijft er eerlijk over.
Waarom 1–10 Agenten Werkt — En Waarom Het Niet Kan Schalen
De reden dat 1–10 agenten behapbaar zijn is structureel, niet technologisch.
Elke agent heeft een duidelijke eigenaar. Als er iets breekt, triage één persoon. Als iets werkt, krijgt één persoon de credits. De accountability structuur is menselijk schaalbaar.
Elke agent's kosten zijn toerekenbaar. Je weet wat de klantenservice-agent per maand kost. Je weet wat de facturatie-agent kost. Als de CFO vraagt welke AI-investeringen waarde produceren, kun je antwoorden.
Elke agent's output is verifieerbaar. Je controleert het werk. Je spot-checkt de gegenereerde facturen, de gesloten tickets, de geproduceerde rapporten. Het werk van de agent is onderscheidbaar van het menselijke werk errond.
Elke agent's falen is ingeperkt. Eén agent faalt, één persoon lost het op, het systeem gaat door.
Deze structuur werkt tot ongeveer 10 agenten. Het stopt met werken bij 11.
Wat Er Breekt bij de 10-Agent Drempel
De foutpatronen op schaal zijn specifiek en benoembaar.
Orchestratie Complexiteit Explosie
Agent A is afhankelijk van Agent B is afhankelijk van Agent C. Als A faalt, weet je niet of het A's schuld is, B's schuld, of C's schuld. De fout is cascaderend en onzichtbaar totdat hij ergens downstream opduikt — meestal voor een klant.
Bij één organisatie stuurde een lead-routing agent af en toe leads naar de verkeerde sales rep. Het debugproces duurde vier dagen. De werkelijke oorzaak: een data enrichment agent was begonnen met het retourneren van een nieuw veld dat de routing agent niet verwachtte, waardoor deze de prioriteitsscore verkeerd parseerde. Niemand had de routing agent aangeraakt. Niemand had het CRM aangeraakt. De fout zat volledig in de interactie tussen twee agenten die elk individueel waren getest en correct bevonden.
Dit is het fundamentele probleem van multi-agent systemen: agenten worden in isolatie getest, maar ze falen in compositie.
Cost Attribution Collapse
Zonder per-agent tracking infrastructuur weet je dat je $X per maand uitgeeft aan AI. Je weet niet welke agenten waarde produceren en welke ruis zijn.
Bij een mid-size bedrijf met 14 agenten vroeg een CFO: "Welke van deze zijn eigenlijk waard wat we betalen?" Het antwoord kostte drie weken om samen te stellen en was nog steeds onnauwkeurig. De agenten waren incrementeler toegevoegd over acht maanden door drie verschillende teamleden, en niemand had de attributie-infrastructuur gebouwd toen de eerste agent werd uitgerold.
De kosten van die attributieschuld: ongeveer $40.000 aan over-provisioned agent capaciteit die niemand was opgevallen omdat de facturering binnenkwam als één regelitem.
Monitoring Gap
De individuele metrics van elke agent zijn zichtbaar. Agent-systeem interactie metrics zijn dat niet.
De individuele metrics van je klantenservice-agent zijn prima. De individuele metrics van je CRM-agent zijn prima. Maar de interactie tussen hen — wat er gebeurt wanneer de klantenservice-agent een case creëert waar de CRM-agent op moet reageren — die interactie heeft geen metrics. Je ziet bomen. Je ziet het bos niet.
Dit is de monitoring gap op schaal. Het vereist instrumentatie die de meeste agent platforms niet out-of-the-box leveren, en die de meeste teams niet weten dat ze nodig hebben tot ze er al in hebben gedeployed.
Ownership Ambiguity
Wanneer drie agenten bijdragen aan één uitkomst, wie is eigenaar van die uitkomst?
Meer specifiek: wanneer een agent faalt halverwege een workflow, wie triageert? Wanneer de output van een agent degradeert omdat een andere agent zijn gedrag heeft veranderd, wie diagnosticeert? Wanneer het systeem een slechte uitkomst produceert, wie is verantwoordelijk?
De organisatorische structuur die werkt voor vijf agenten — "jij bent eigenaar van die agent, ik ben eigenaar van deze" — past niet soepel naar vijftien agenten waar agenten meer met elkaar interageren dan met de mensen die ze nomineler eigenaar zijn.
The Coordination Tax
Tijd besteed aan het coördineren van agenten groeit als O(n²).
Met vijf agenten is de coördinatie-overhead behapbaar — af en toe check-ins, af en toe debuggen, af en toe herrouteren. Eén persoon kan het mentale model van hoe de vijf agenten interageren bijhouden.
Met twintig agenten wordt coördinatie een fulltime rol. Je hebt iemand nodig van wie het primaire werk is het tracken van agent-naar-agent dependencies, het managen van handoffs, het debuggen van cross-agent failures, en het onderhouden van de systeemmap die niemand anders tijd heeft om bij te houden.
Bij vijftig agenten heb je een team nodig.
De meeste organisaties die AI agenten deployen hebben hiervoor niet gebudgetteerd. Ze ontdekken de behoefte ervan reactief — wanneer de coördinatie-overhead de productiviteitswinst die de agenten supposed waren te leveren al heeft verbruikt.
De Orchestratie Laag — Wat Het Daadwerkelijk Is
Een orchestratielaag is infrastructuur die boven individuele agenten zit en vijf dingen beheert die individuele agenten niet zelf kunnen beheren.
Task routing: Welke agent handelt welk verzoek af? In een 5-agent systeem is dit een handmatige beslissing. In een 15-agent systeem vereist het routing logic die agent capabilities, huidige load en context begrijpt.
State management: Hoe delen agenten context? Wanneer Agent A output produceert die Agent B nodig heeft, hoe weet B dan wat A heeft geproduceerd? Zonder gedeelde state infrastructuur communiceren agenten via breekbare handoffs — file drops, webhook triggers, gedeelde databases die uit synchronisatie raken.
Error handling: Wat gebeurt er wanneer een agent halverwege een workflow faalt? Stopt de workflow? Retry een andere agent? Wordt een mens genotificeerd? Individuele agenten handelen hun eigen errors af. Orchestratie handelt errors over agent boundaries heen af.
Cost tracking: Per-agent, per-task, per-output attributie. Dit vereist instrumentatie die de meeste agent frameworks niet native leveren.
Monitoring: Agent-systeem interactie metrics, niet alleen agent-level metrics. Dit is de monitoring gap die hierboven is beschreven.
Wat een orchestratielaag NIET is: een enkele super-agent die alles doet. Het is niet de AI die de andere AI's beheert in een of andere senthiële hiërarchie. Het is infrastructuur — routing, state, error handling, attributie, monitoring — die multi-agent systemen behapbaar maakt om te opereren.
LangGraph handelt stateful workflows af en is de meest developer-flexibele optie. AWS Bedrock Agents biedt managed orchestratie met AWS-integratie. Azure AI Agent Service biedt vergelijkbare managed capability voor Microsoft-gealigneerde teams. Google Vertex AI Agent Builder zit in dezelfde categorie. CrewAI biedt multi-agent role-based orchestratie die toegankelijker is voor teams zonder diepe infrastructuur engineering.
Het Beslisraamwerk
Vijf vragen die door de ruis heen snijden.
Interageert deze agent met bestaande agenten? Als de nieuwe agent output leest van of input schrijft naar bestaande agenten, zit je al in orchestratie-territorium. De interactie moet worden ontworpen, niet emergent.
Kan ik de kosten toerekenen aan een specifiek business outcome? Als je deze vraag niet kunt beantwoorden voor de voorgestelde agent, voeg je opaciteit toe. Elke agent die je niet kunt attributeren is een noise generator in je cost reporting.
Deelt het state met andere agenten? Als de nieuwe agent toegang nodig heeft tot data die andere agenten produceren of consumeren, heb je gedeelde state infrastructuur nodig.
Kan ik het onafhankelijk monitoren? Niet alleen of het draait — of de outputs correct zijn, of de error rate binnen de bounds zit. Als je het niet kunt meten, kun je het niet verbeteren.
Kan ik "welke agenten produceren waarde" beantwoorden voor al mijn huidige agenten? Als je dit niet kunt beantwoorden voor je bestaande agenten, heb je de drempel al gepasseerd. Het 10-agent probleem gaat niet specifiek over de 10e agent — het gaat over de capability gap die accumuleert naarmate je agenten toevoegt. De 10e agent is gewoon wanneer de gap onmogelijk te negeren wordt.
Vuistregel: als je je 8e agent toevoegt en het zal interageren met een van de vorige 7, investeer dan in orchestratie-infrastructuur vóór de 10e. De kosten van het retrospectief bouwen zijn significant hoger dan proactief bouwen.
De Ware Kosten van de Drempel
Monitoring tools kunnen duurder zijn dan de agenten zelf op schaal.
Bij één organisatie met 23 agenten liepen de maandelijkse kosten voor monitoring en observability tooling op tot 1.3x de kosten van het agent platform. De monitoring was niet eens goed — het genereerde zoveel alerts dat het team alert fatigue had ontwikkeld en echte failures miste.
De coördinatie-tax is de andere kosten die consistent worden onderschat. Bij één team besteedde de persoon die de agent-infrastructuur onderhield 60% van zijn tijd aan coördinatie — integratiecode schrijven tussen agenten, cross-agent failures debuggen, de systeemmap onderhouden — en 40% aan het daadwerkelijke werk dat de agenten supposed waren te doen.
En het eerlijke punt: voor de meeste MKB's is onder de 10 agenten blijven met schone point solutions de juiste architecturale keuze. De orchestratie-infrastructuur die nodig is om 10+ agenten betrouwbaar te draaien is een significante investering. Als je use case bediend kan worden door zeven agenten die elk één ding goed doen, heb je geen orchestratie nodig.
Het Signaal Dat Zegt Dat Je Het Hebt Gepasseerd
Wanneer je niet kunt beantwoorden "welke agenten produceren waarde?" — dát is wanneer je het hebt gepasseerd.
Niet wanneer je agent nummer 10 bereikt. Wanneer de attributievraag onbeantwoordbaar wordt.
Als je dat moment nadert, is de investering orchestratie-infrastructuur: routing, state, error handling, attributie, monitoring. De teams die успешно voorbij 10 agenten schalen zijn degenen die de 8e of 9e agent hebben behandeld als het punt waarop bewuste architectuur noodzakelijk wordt.