Die Verantwortungslücke bei KI-Agenten: 74% der Wissensarbeiter nutzen KI – doch niemand fühlt sich zuständig
Die Frage, die niemand in deiner Organisation beantworten kann
Welche AI Agents haben auf welche Daten zugegriffen, wann und auf wessen Autorität?
Heute — 26. März 2026 — hat Fortune eine Studie zusammen mit Accenture und Wharton veröffentlicht, die das Ausmaß des Problems schonungslos offenlegt. Fast 74 % der Knowledge Worker nutzen inzwischen AI. Nicht auf genehmigte, kontrollierte Weise. Sondern im Schatten-AI-Modus: BYO-AI-Tools, eingesetzt von Fachabteilungen, ohne IT-Freigabe, ohne Sicherheitsprüfung, ohne ein Gespräch darüber, was passiert, wenn etwas schiefgeht.
Gleichzeitig haben CSA und Aembit diese Woche auf der RSAC 2026 in San Francisco Umfragedaten von 228 IT- und Security-Fachleuten veröffentlicht, die die organisatorische Realität noch deutlicher machen. 68 % der Organisationen können in ihren eigenen Systemen nicht klar zwischen AI Agent-Aktivitäten und menschlichen Aktivitäten unterscheiden. 84 % bezweifeln, dass sie ein Compliance Audit mit Fokus auf AI Agent-Verhalten und Zugriffskontrollen bestehen könnten.
74 % deiner Knowledge Worker nutzen AI. 68 % der Organisationen können nicht sagen, ob die Aktionen in ihren Systemen von einem Menschen oder einem AI Agent ausgeführt wurden. Niemand ist dafür verantwortlich.
Das ist die Accountability Gap. Und das ist kein Technologieproblem. Das ist ein organisatorisches Designproblem.
Die Zahlen hinter der Accountability Gap
74 % der Knowledge Worker nutzen AI — die meisten davon ungoviant
Der Accenture- und Wharton-Report „Global Products", der heute in Fortune veröffentlicht wurde, ist die Grundlage für diesen Abschnitt. James Crowley, Co-Autor: „Intelligenz ist skalierbar, aber Accountability ist es nicht." Dieser Satz ist die These.
Der Umfang: 120 Millionen Arbeitnehmer across 18 Branchen. Mehr als 50 % der Arbeitsstunden in der amerikanischen Wirtschaft stehen auf dem Spiel — und werden durch AI Agents umgestaltet. Bank- und Kapitalmärkte: mehr als 45 % der Stunden sind allein durch digitale Agents betroffen. Bis 2028 werden voraussichtlich etwa ein Drittel aller Enterprise-Anwendungen agentic Capabilities eingebettet haben.
Die Governance-Reaktion auf diesen Einsatz hat nicht Schritt gehalten. Die Mehrheit der Knowledge Worker, die AI nutzen, tut dies über nicht genehmigte Tools. Fachabteilungen adoptieren AI schneller, als die IT sie bewerten kann. Security-Teams haben keine Visibility, welche Agents laufen, worauf sie zugreifen und welche Entscheidungen sie treffen.
85 % haben Agents in Production. 68 % können nicht unterscheiden, ob es menschlich oder AI ist.
Die CSA/Aembit-Umfrage, veröffentlicht am 24. März auf der RSAC 2026 und am 26. März von Help Net Security berichtet, ist das operative Gegenstück zu den Fortune-Daten.
85 % der Organisationen haben AI Agents, die in Production-Umgebungen funktionieren. Diese Zahl ist konsistent mit dem Accenture+Wharton-Befund — Agents sind deployed, sie sind operativ, sie treffen Entscheidungen.
Aber 68 % können in ihren eigenen Systemen nicht klar zwischen menschlich initiierten und AI-Agent-initiierten Aktivitäten unterscheiden. Das ist keine kleine Lücke. Das ist ein fundamentales Identity-Problem. Wenn du nicht unterscheiden kannst, was ein Mensch getan hat und was ein Agent, dann kannst du Aktionen nicht zuschreiben, keine Accountability durchsetzen und Vorfälle nicht untersuchen.
Die hinzukommenden Daten: 73 % erwarten, dass AI Agents innerhalb des nächsten Jahres für ihre Organisationen unverzichtbar werden. Die Deployment-Rate beschleunigt sich. Die Governance-Lücke wächst mit ihr.
91 % nutzen Agents. 10 % haben effektive Governance.
Das gemeinsame Webinar von Okta und Accenture vom 23. Januar 2026 gab uns den Governance-Effektivitäts-Kontrast: 91 % der Organisationen nutzen bereits AI Agents. Nur 10 % sind der Meinung, dass sie eine effektive AI Agent Governance Strategy haben.
Zehn Prozent. Das ist die Zahl, die jeden CISO heute Nacht wach halten sollte. Fast jedes Unternehmen betreibt AI Agents. Fast keines hat funktionierende Governance.
Greg Callegari von Accenture brachte die Diagnose in diesem Webinar klar auf den Punkt: „Agents verhalten sich wie Mitarbeiter, sie führen Aufgaben aus, die Menschen erledigen würden. Also ist der Weg, sie abzusichern, sie als Identities zu managen." Die Organisationen, die diese Prämisse nicht akzeptiert haben, sind diejenigen, die bei 10 % Governance-Effektivität liegen.
Warum niemand AI Agent Accountability besitzt
Die Accountability Gap ist kein Zufall. Sie ist strukturell bedingt. Die CSA-Daten machen die Ownership-Fragmentierung in Zahlen sichtbar: Die Verantwortung für AI Agent Governance ist auf vier Gruppen verteilt, von denen keine es als primären Auftrag hat.
Security Leads: 28 %. Development und Engineering: 21 %. IT: 19 %. IAM-Teams: 9 %.
Neun Prozent. Das Team, das am besten qualifiziert ist, Non-Human Identity Governance zu managen — IAM — führt AI Agent Governance nur in 9 % der Organisationen. Alle anderen improvisieren.
Kevin Werbach vom Wharton Accountable AI Lab beschrieb die organisatorische Dynamik, die dieses Vakuum schafft: „Mein Business Program Manager baut Agents und schickt sie raus." Der traditionelle IT-Release-Review-Prozess kann mit der Geschwindigkeit nicht mithalten, mit der Agents innerhalb von Organisationen gebaut werden. Bis eine Governance-Review angesetzt ist, läuft der Agent seit sechs Wochen in Production.
Das Ergebnis: Accountability, die aller Verantwortung und niemandes Job ist. Security denkt, IAM ist zuständig. IAM denkt, Security ist zuständig. Development hat einige gebaut. Fachabteilungen haben andere gebaut. Niemand hat ein Meeting einberufen, um zu entscheiden, wer verantwortlich ist für das, was passiert, wenn der Agent etwas Unerwartetes tut.
Die Authentication Gap
Die technische Dimension des Accountability-Problems ist ebenso schonungslos.
Aus der Strata Identity und CSA-Forschung, veröffentlicht am 5. Februar 2026: 44 % der Organisationen nutzen statische API Keys, um AI Agents zu authentifizieren. 43 % nutzen Username-und-Password-Kombinationen. Das sind keine Legacy-Systeme. Das sind Production AI Agents, die autonom laufen und dasselbe Credential-Modell nutzen wie der Login eines menschlichen Mitarbeiters.
Statische API Keys laufen nicht automatisch ab. Username-und-Password-Credentials sind nicht an eine spezifische Agent-Identity gebunden. Wenn ein Agent kompromittiert wird, bleiben diese Credentials aktiv, bis jemand sie manuell widerruft. Eric Olden, CEO von Strata Identity: „Statische Credentials, manuelle Provisionierung und Silo-Policies können mit der Geschwindigkeit und Autonomie agentic Systems nicht mithalten."
31 % der Organisationen erlauben AI Agents, unter menschlichen User-Identities zu operieren. Das bedeutet, der Agent nutzt dieselben Credentials wie ein bestimmter Mitarbeiter — keine Service Identity, keine Agent Identity, sondern den echten Login eines Menschen. Wenn etwas schiefgeht, zeigt das Audit Log einen menschlichen Namen. Der Mensch war zu der Zeit in einem Meeting.
Die Security-Implikationen — wenn Agents außer Kontrolle geraten
Die Accountability Gap ist nicht nur ein Compliance-Problem. Sie ist eine Security-Angriffsfläche.
Die CSA/Aembit-Daten: 74 % der Organisationen berichten, dass AI Agents häufig mehr Zugriff erhalten, als für ihre spezifische Aufgabe nötig wäre. 79 % sagen, Agents schaffen neue Zugriffspfade, die schwer zu überwachen sind. Das sind keine Randfälle. Das ist die operative Norm.
Ein AI Agent mit übermäßig breiten Berechtigungen, der autonom über mehrere Systeme operiert, ist die Definition einer erweiterten Angriffsfläche. Es ist kein böswilliger Insider. Es ist kein externer Angreifer. Es ist ein autonomes System, das genau das tut, wofür es entwickelt wurde — mit Zugriff, den niemand richtig gescoped hat.
Das Prompt-Manipulation-Risiko verschärft das noch. 81 % der Organisationen sind sich einig: Prompt Manipulation könnte einen AI Agent dazu bringen, sensible Credentials oder Tokens preiszugeben. Der Agent nutzt echte Credentials durch einen echten Zugriffspfad. Keine Malware wurde platziert. Kein Exploit-Code wurde verwendet. Der Agent wurde durch dieselbe Interface manipuliert, die er nutzen soll, um gegen die Interessen der Organisation zu handeln.
Arize veröffentlichte „100 AI Agents Per Employee" am 21. März 2026. Jensen Huangs Vorhersage: roughly 100 AI Agents pro Mitarbeiter in großen Unternehmen innerhalb weniger Jahre. McKinseys aktuelle Schätzung: 25.000 Agents arbeiten alongside 60.000 Menschen in einem typischen Großunternehmen. Mach die Rechnung für deine Organisation. Jeder Agent hat irgendein Level von System-Zugriff. Die meisten haben mehr, als sie brauchen. Die meisten werden nicht überwacht. Die meisten operieren unter Credentials, die niemand gescoped hat.
Das ist keine Security Posture. Das ist eine Angriffsfläche, die auf einen Auslöser wartet.
Der Governance-Fix — AI Agents wie Mitarbeiter behandeln
Greg Callegaris Framework aus dem Okta-Webinar ist das umsetzbarste Governance-Prinzip, das ich für AI Agents formuliert gesehen habe: „Agents brauchen ihre eigene Identity. Wenn du das einmal akzeptierst, fließt alles andere daraus — Access Control, Governance, Auditing und Compliance."
Behandle AI Agents wie Mitarbeiter. Nicht metaphorisch. Operativ.
Keine Organisation würde einen Mitarbeiter einstellen, ihm Admin-Credentials für jedes System geben und auf das Beste hoffen. Sie würden eine Rolle definieren. Least Privilege durchsetzen. Aktivitäten überwachen. Festlegen, wer verantwortlich ist, wenn etwas schiefgeht.
AI Agents brauchen genau dieselbe Behandlung. So sieht das in der Praxis aus.
Schritt 1: Gib jedem Agent seine eigene formale Identity
Kein geteiltes Service Account. Kein Login eines menschlichen Mitarbeiters. Eine distinctive, attributable Identity — mit eigenen Credentials, eigenem Access Scope und eigener Ownership Chain.
Das ist das Fundament. Alle anderen Governance-Schritte hängen davon ab. Ohne Agent-Level Identity kannst du Aktionen nicht zuschreiben, Access Controls nicht durchsetzen oder sinnvolle Incident-Untersuchungen durchführen.
Schritt 2: Scope den Zugriff wie für einen neuen Mitarbeiter
Definiere genau, auf was jeder Agent Zugriff braucht, für genau welche Aufgaben. Agents sollten mit Least-Privilege-Zugriff operieren — genau das, was ihre Funktion erfordert, nichts mehr.
Die CSA-Daten — 74 % der Agents erhalten mehr Zugriff als nötig — spiegeln den aktuellen Standard wider: Agents bekommen breiten Zugriff, weil es einfacher zu konfigurieren ist. Das ist dieselbe Begründung, die in den 1990ern das übermäßige Berechtigungsproblem bei menschlichen Mitarbeitern geschaffen hat. Wir haben es damals mit Role-Based Access Control gelöst. Wir müssen es jetzt für AI Agents lösen.
Schritt 3: Definiere Agent Lifecycle Management
Agents haben Starttermine. Agents haben Review-Zeiträume. Agents haben Endtermine.
Wenn die zugewiesene Aufgabe eines AI Agents abgeschlossen ist, sollte sein Zugriff überprüft und gegebenenfalls widerrufen werden. Wenn ein Agent decomissioned wird, sollte seine Identity formal retired werden — genauso wie wenn ein Mitarbeiter das Unternehmen verlässt.
Die meisten Organisationen haben keinen Agent-Lifecycle-Prozess. Die meisten Agents laufen, bis etwas kaputtgeht oder sich niemand mehr an sie erinnert. Die Agents, die unbegrenzt mit aktiven Credentials weiterlaufen, werden zu Security-Vorfällen.
Schritt 4: Kontinuierliches Monitoring und Attribution
Agent-Verhalten sollte geloggt, einer spezifischen Agent-Identity zugeordnet und kontinuierlich überwacht werden — nicht nach einem Vorfall überprüft, sondern als standardmäßige operative Praxis in Echtzeit getrackt.
Hier muss die 68 %-Marke ansetzen — Organisationen, die Agent-Aktivität nicht von menschlicher Aktivität unterscheiden können. Du kannst nicht überwachen, was du nicht unterscheiden kannst. Baue zuerst die Attribution-Infrastruktur auf.
Schritt 5: Weise einen Owner mit vollständiger Accountability zu
Die Ownership-Fragmentierung — Security 28 %, Dev/Eng 21 %, IT 19 %, IAM 9 % — ist der strukturelle Grund, warum Governance scheitert. Governance ohne benannten Owner ist Governance ohne Durchsetzung.
Ein Team sollte AI Agent Governance besitzen. Für die meisten Organisationen ist das IAM — das Team, das bereits für Non-Human Identity Management verantwortlich ist. Für andere könnte es Security sein. Das spezifische Team ist weniger wichtig als das Prinzip: ein Owner, mit expliziter Accountability, mit Autorität, Policies durchzusetzen.
Die Accountability-Selbstbewertung — 8 Fragen, die jeder Executive beantworten können sollte
Nutze diese acht Fragen, um zu bewerten, wo deine Organisation steht. Ein „Nein" oder „Ich weiß nicht" bei den meisten ist eine Diagnose, kein Urteil.
1. Welcher Prozentsatz der AI Agents in deiner Production-Umgebung wurde vor dem Deployment einer formalen IT- und Security-Review unterzogen?
Wenn die Antwort „die meisten" oder „Ich weiß nicht" ist, hast du ein Governance-Problem. Die Accenture+Wharton-Daten deuten darauf hin, dass es Letzteres ist.
2. Kannst du in Echtzeit unterscheiden, welche Aktionen in deinen Systemen von einem Menschen und welche von einem AI Agent ausgeführt wurden?
Wenn nein, kannst du Aktionen nicht zuschreiben, Vorfälle nicht untersuchen und keine Compliance Audits durchführen. Die 68 %, die nicht unterscheiden können, sind deine Vergleichsgruppe.
3. Wer besitzt AI Agent Governance in deiner Organisation?
Wenn die Antwort das Wort „wir" enthält — wie in „wir machen das alle zusammen" — besitzt es niemand. Ownership erfordert einen einzelnen Namen.
4. Welcher Prozentsatz deiner AI Agents operiert unter ihrer eigenen formalen Identity versus einem geteilten Service Account oder den Credentials eines menschlichen Mitarbeiters?
Wenn die meisten Agents geteilte Credentials nutzen, kannst du Aktionen nicht spezifischen Agents zuschreiben. Du kannst geteilte Credentials nicht widerrufen, ohne jeden Agent zu beeinträchtigen, der sie nutzt.
5. Könntest du ein Compliance Audit bestehen, das sich spezifisch auf AI Agent-Verhalten und Zugriffskontrollen konzentriert?
Die CSA-Daten: 84 % der Organisationen bezweifelten, dass sie es könnten. Wenn deine Antwort etwas anderes als „Ja" ist, ist die Lücke dein Risiko.
6. Haben deine AI Agents definierte Access Scopes — oder haben sie mehr Zugriff, als ihre spezifischen Aufgaben erfordern?
Wenn Agents blanket Access auf Systeme haben statt aufgaben-spezifischen Zugriff, hast du das 74 %-Problem — erhöhte Berechtigungen, die unnötige Angriffsfläche schaffen.
7. Was passiert mit dem Zugriff eines AI Agents, wenn seine zugewiesene Aufgabe abgeschlossen ist?
Wenn die Antwort „er läuft weiter" ist, hast du Agents mit aktiven Credentials und keinem definierten Endzustand. Das ist das Lifecycle-Problem.
8. Hast du einen Incident-Response-Plan speziell für einen kompromittierten AI Agent?
Wenn die Antwort „wir würden ihn wie jeden anderen Security-Vorfall behandeln" ist, hast du keinen AI-spezifischen Plan. Ein kompromittierter Agent operiert anders als kompromittierte menschliche Credentials — deine Response sollte das widerspiegeln.
Fazit
Die Accountability Gap ist keine Technologielücke. Sie ist eine organisatorische Designlücke.
74 % der Knowledge Worker nutzen AI. 68 % der Organisationen können nicht sagen, ob die Aktionen in ihren eigenen Systemen von einem Menschen oder einem AI Agent ausgeführt wurden. 84 % bezweifeln, dass sie ein Compliance Audit bestehen könnten. 10 % sind der Meinung, dass sie effektive Governance haben.
Diese Zahlen sind nicht abstrakt. Sie beschreiben die tatsächliche Posture deiner Organisation gerade jetzt.
Der Fix ist kein neues Policy-Dokument. Es ist eine organisatorische Entscheidung: Behandle AI Agents wie Mitarbeiter — mit formalen Identities, gescopten Zugriff, Lifecycle Management und benannter Accountability. Das Callegari-Framework funktioniert. Die Organisationen, die es implementiert haben, sind die 10 %, die ihre Governance als effektiv empfinden.
Alle anderen hoffen, dass sich die Agents benehmen. Das ist keine Governance-Strategie. Das ist ein Haftungsrisiko.