Zurück zum Blog
AI Automation2026-04-047 min read

The 35-Minute Rule — How to Decide What to Automate With AI in 2026

Es gibt eine Zahl, die die meisten Productivity-Frameworks ignorieren. Fünfunddreißig Minuten.

Toby Ord, Philosoph an der Oxford University und Autor von The Precipice, hat ein Framework, das er „Langweiligkeitsschwelle" nennt – der Punkt, an dem ein Mensch, der an einer repetitiven oder flachen Aufgabe arbeitet, die Konzentration verliert und anfängt, Fehler zu machen. Seine Beobachtung ist, dass die meisten kognitiven Arbeiten, wenn sie kontinuierlich über fünfunddreißig Minuten hinaus ausgeführt werden, in der Qualität nachlassen. Die Fehler sind nicht dramatisch. Sie sind leise – eine Tabellenkalkulationsformel, die leicht falsch ist, eine E-Mail, die im Ton leicht daneben liegt, eine Dateneingabe, die leicht fehlerhaft ist. Die Arbeit wird erledigt. Die Qualität liegt unter dem, was sie sein sollte.

AIMultiple's Forschung übersetzt dies in eine praktische Entscheidungsregel: Jede Aufgabe, die mehr als fünfunddreißig Minuten dauert und einem wiederholbaren Muster folgt, sollte für KI-Automatisierung oder -Delegation evaluiert werden. Die Fünfunddreißig-Minuten-Schwelle ist kein Productivity-Hack. Sie ist eine kognitive Grenze. Wenn du einen Menschen damit beauftragst, Arbeit zu erledigen, die ein KI-Agent in dreißig Sekunden erledigen kann, bezahlst du einen menschlichen Lohn für degradierte Aufmerksamkeit.

Das verändert die Automatisierungsentscheidung von „was können wir automatisieren?" hin zu „was sollten wir Menschen überhaupt nicht mehr zumuten?" Und diese ehrlich beantwortete Frage ist der Productivity-Hebel, den die meisten Organisationen nicht nutzen.


Das Error-Propagation-Problem – Warum die Fünfunddreißig-Minuten-Regel wichtig ist

Die Galileo-Forschung zu Error-Propagation-Cascades beschreibt, warum die Fünfunddreißig-Minuten-Schwelle nicht nur etwas mit Effizienz zu tun hat – sie betrifft die Fehlerqualität.

Wenn ein Mensch einen Fehler bei einer Aufgabe macht, die seit fünfunddreißig Minuten läuft, bleibt der Fehler nicht an dieser Stelle. Er pflanzt sich fort in jeden nachfolgenden Schritt. Eine falsche Zellreferenz in einem Tabellenkalkulationsmodell bei Minute dreißig kontaminiert die Analyse bei Minute fünfzig. Eine falsch codierte Dateneingabe am Anfang einer Datenmigration kontaminiert die Datenbank am Ende. Der Mensch ist müde, macht kleine Fehler, und jeder Fehler verstärkt sich in dem System, das er aufbaut.

KI-Agenten haben keine Langweiligkeitsschwelle. Sie degradieren nicht nach fünfunddreißig Minuten. Sie machen nicht mehr Fehler bei der hundertsten Iteration als bei der ersten. Wenn eine Aufgabe unter der Fünfunddreißig-Minuten-Schwelle liegt und einem wiederholbaren Muster folgt, ist das Qualitätsargument für KI gegenüber menschlicher Ausführung nicht marginal – es ist strukturell.

Der Error-Propagation-Cascade ist am schädlichsten in Aufgaben, bei denen die Ausgabe direkt in ein anderes System fließt. Eine falsche CRM-Aktualisierung speist falsche Daten in den Sales-Pipeline. Ein Finanzmodell mit einer falschen Annahme speist falsche Daten ins Budget. Eine E-Mail an einen Kunden mit dem falschen Ton erzeugt ein Beziehungsproblem, das Management-Zeit zur Lösung erfordert. Die Kosten des Fehlers sind nicht die Zeit, ihn zu beheben. Es ist die Kontamination downstream.

Der Productivity-Hebel liegt daher nicht in der Automatisierung der Aufgabe. Er liegt in der Vermeidung des Fehler-Cascades, bevor er beginnt.


AI-Native Task Decomposition – Arbeit unter der Schwelle aufbrechen

Die praktische Anwendung der Fünfunddreißig-Minuten-Regel erfordert eine Disziplin, die die meisten Organisationen noch nicht entwickelt haben: AI-Native Task Decomposition.

Traditionelle Task Decomposition – aus dem Projektmanagement – bricht Arbeit in logische Einheiten für menschliche Ausführung auf. Die Arbeitseinheit ist für menschliche Aufmerksamkeitsspannen, menschliches Scheduling und menschliche Ermüdungsmuster dimensioniert.

AI-Native Task Decomposition bricht Arbeit in Einheiten auf, die für KI-Agenten dimensioniert sind. Die Frage ist nicht „wie sollte ein Mensch das ausführen?" sondern „wie sollte ein KI-Agent das ausführen?" Die Antwort erfordert, gleichzeitig über drei Dinge nachzudenken: was der KI-Agent zuverlässig tun kann, was der Mensch überprüfen muss, bevor es sich weiter fortpflanzt, und was die Kosten eines Fehlers an jedem Schritt wären.

Das Decomposition-Framework hat drei Fragen, die für jede Aufgabe gestellt werden sollten, bevor sie einem Menschen oder einer KI zugewiesen wird:

Liegt diese Aufgabe unter der Fünfunddreißig-Minuten-Schwelle? Wenn ja, ist sie ein Kandidat für KI-Ausführung. Wenn sie mehr als fünfunddreißig Minuten für einen Menschen dauert, wird sie in der Qualität degradieren. Der KI-Agent wird es nicht tun. Eine fünfunddreißigminütige Aufgabe für einen Menschen könnte einen KI-Agenten dreißig Sekunden kosten. Das ist ein Feature, keine Einschränkung.

Ist der Error-Propagation-Risiko akzeptabel? Wenn die Aufgabenausgabe in ein nachgelagertes System fließt – ein CRM, ein Finanzmodell, eine Datenbank – sind die Kosten eines Fehlers nicht die Zeit, die Aufgabe zu beheben. Es ist die Kontamination downstream. Aufgaben mit hohem Propagation-Risiko erfordern menschliche Review-Gates. Aufgaben mit niedrigem Propagation-Risiko können autonom laufen.

Kann die Ausgabe verifiziert werden, bevor eine kostspielige Maßnahme ergriffen wird? Ein KI-Agent, der einen Bericht generiert, sollte seine Schlussfolgerungen stichprobenartig überprüfen, bevor der Bericht an einen Kunden geht. Ein KI-Agent, der einen Termin plant, kann ohne Review ausführen. Ein KI-Agent, der eine E-Mail an einen Kunden sendet, sollte wahrscheinlich einen Menschen haben, der sie liest, bevor sie rausgeht. Die Verifizierungsanforderung ist eine Funktion der Kosten einer falschen Ausgabe.


Das Drei-Fragen-Scoping-Framework

Frage eins: Ist diese Aufgabe wiederholbar und unter fünfunddreißig Minuten für einen Menschen? Wenn die Antwort nein ist – wenn es zwei Stunden dauert oder wenn es jedes Mal genuin neu ist – ist es kein KI-Automatisierungskandidat. Es ist eine menschliche Aufgabe. Weise sie dem Menschen zu und versuche nicht, sie zu automatisieren. Die Fünfunddreißig-Minuten-Regel sagt nicht „automatisier alles." Sie sagt „automatisier die Dinge, bei denen Menschen schlecht sind, weil ihrer Kognition."

Frage zwei: Was sind die Kosten eines Fehlers an jedem Schritt? Die Fünfunddreißig-Minuten-Regel ist kein Grund, menschliches Urteilsvermögen aus komplexen Aufgaben zu entfernen. Sie ist ein Grund, ehrlich darüber zu sein, was menschliches Urteilsvermögen hinzufügt und was es kostet. Wenn die Kosten eines Fehlers niedrig sind, kann die KI autonom laufen. Wenn die Kosten eines Fehlers hoch sind, muss der Mensch überprüfen, bevor die Ausgabe sich fortpflanzt.

Frage drei: Erfordert die Ausgabe menschliches Urteilsvermögen, um wertvoll zu sein? Manche Ausgaben sind als reine Daten wertvoll – eine Liste qualifizierter Leads, ein geplanter Termin, ein ausgefüllter CRM-Datensatz. Manche Ausgaben erfordern einen Menschen, der den Kontext liest, Urteilsvermögen anwendet und entscheidet, ob zu handeln ist: eine sensible Reaktion auf eine Kundenbeschwerde, eine strategische Empfehlung. Die KI kann diese entwerfen. Der Mensch muss entscheiden.


Der organisatorische Wandel – Von Task-Zuweisung zu System-Design

Die Fünfunddreißig-Minuten-Regel verändert die Productivity-Conversation von „wie machen wir Menschen effizienter?" zu „wie designen wir Systeme, in denen KI und Menschen jeweils das tun, was sie am besten können?"

Das ist eine System-Design-Frage, keine Task-Management-Frage. Sie erfordert, Arbeit als einen Flow zu betrachten, anstatt als eine Sammlung von Tasks. Die Fünfunddreißig-Minuten-Regel auf einzelne Tasks angewandt ist ein nützlicher Heuristic. Angewandt auf einen Workflow – eine Reihe von Tasks, die durch Datenflüsse verbunden sind – wird es eine System-Architecture-Frage.

Der Workflow, bei dem die Fünfunddreißig-Minuten-Regel den größten Hebel hat, ist derjenige, bei dem die meisten Tasks unter der Schwelle liegen, die meisten Ausgaben in andere Schritte fließen und die Error-Propagation-Kosten an jedem Schritt verstanden werden. Die KI-Agenten übernehmen die Low-Threshold-, High-Frequency-Tasks. Die Menschen übernehmen die Urteilsanrufe, das Exception-Processing und die finale Genehmigung für alles, was sich außerhalb des Systems fortpflanzt.


Die ehrliche Kalibrierung – Wann die Regel nicht gilt

Die Fünfunddreißig-Minuten-Regel ist ein Entscheidungs-Framework, kein Naturgesetz.

Komplexe kreative Arbeit – Strategie, Design, Narrative, Verhandlung – liegt nicht unter der Fünfunddreißig-Minuten-Schwelle in einem sinnvollen Sinne. Sie ist nicht repetitiv. Sie hat keine richtige Antwort, die verifiziert werden kann. Die Fünfunddreißig-Minuten-Regel gilt nicht für Arbeit, deren Wert im Urteilsvermögen des Menschen liegt.

**Beziehungsabhängige

Ready to let AI handle your busywork?

Book a free 20-minute assessment. We'll review your workflows, identify automation opportunities, and show you exactly how your AI corps would work.

From $199/month ongoing, cancel anytime. Initial setup is quoted based on your requirements.