La regola dei 35 minuti — Come decidere cosa automatizzare con l'AI nel 2026
C'è un numero che la maggior parte dei framework di produttività ignora. Trentacinque minuti.
Toby Ord, filosofo di Oxford e autore de "The Precipice", ha un framework che chiama "boredom threshold" — la soglia oltre la quale un essere umano che lavora su un compito ripetitivo o superficiale perde concentrazione e inizia a commettere errori. La sua osservazione è che la maggior parte del lavoro cognitivo, se svolto in modo continuo oltre trentacinque minuti, degrada in qualità. Gli errori non sono drammatici. Sono silenziosi — una formula in un foglio di calcolo leggermente sbagliata, un'email leggermente fuori tono, un'inserimento dati leggermente disallineato. Il lavoro viene completato. La qualità è inferiore a quella che dovrebbe essere.
La ricerca di AIMultiple traduce questo in una regola decisionale pratica: qualsiasi compito che richiede più di trentacinque minuti e segue un pattern ripetibile dovrebbe essere valutato per l'automazione o la delega tramite AI. La soglia dei trentacinque minuti non è un hack di produttività. È un limite cognitivo. Quando chiedi a un essere umano di svolgere un lavoro che un agent AI può completare in trentacinque minuti, stai pagando uno stipendio umano per un'attenzione degradata.
Questo cambia la decisione di automazione da "cosa possiamo automatizzare?" a "cosa dovremmo smettere di chiedere agli umani di fare del tutto?" E quella domanda, risposta onestamente, è la leva di produttività che la maggior parte delle organizzazioni non sta catturando.
Il problema della propagazione degli errori — Perché la regola dei trentacinque minuti è importante
La ricerca di Galileo sulla propagazione degli errori a cascata descrive perché la soglia dei trentacinque minuti non riguarda solo l'efficienza, ma la qualità degli errori.
Quando un essere umano commette un errore su un compito che sta svolgendo da quarantacinque minuti, l'errore non rimane al minuto quarantacinque. Propaga in avanti in ogni passaggio successivo. Un riferimento di cella errato in un modello di foglio di calcolo al minuto trenta contamina l'analisi al minuto cinquanta. Un'inserimento dati codificato in modo errato all'inizio di una migrazione dei dati contamina il database alla fine. L'essere umano è affaticato, sta commettendo piccoli errori, e ogni errore si compensa nel sistema che sta costruendo.
Gli agent AI non hanno una soglia di noia. Non degradano dopo trentacinque minuti. Non commettono più errori sulla centesima iterazione rispetto alla prima. Quando un compito è al di sotto della soglia dei trentacinque minuti e segue un pattern ripetibile, l'argomento qualitativo a favore dell'AI rispetto all'esecuzione umana non è marginale — è strutturale.
La cascata di propagazione degli errori è più dannosa nei compiti in cui l'output alimenta direttamente un altro sistema. Un aggiornamento CRM errato immette dati errati nella pipeline di vendita. Un modello finanziario con un'assunzione errata immette dati errati nel budget. Un'email al cliente fuori tono crea un problema relazionale che richiede tempo di gestione per essere risolto. Il costo dell'errore non è il tempo necessario per correggerlo. È la contaminazione a valle.
La leva di produttività non sta quindi nell'automatizzare il compito. Sta nel prevenire la cascata di errori prima che inizi.
Decomposizione dei compiti AI-native — Lavoro sotto la soglia
L'applicazione pratica della regola dei trentacinque minuti richiede una disciplina che la maggior parte delle organizzazioni non ha sviluppato: la decomposizione dei compiti AI-native.
La decomposizione tradizionale dei compiti — derivata dalle metodologie di project management — suddivide il lavoro in unità logiche per l'esecuzione umana. L'unità di lavoro è dimensionata per gli span di attenzione umani, per la programmazione umana, per i pattern di affaticamento umano.
La decomposizione AI-native suddivide il lavoro in unità dimensionate per gli agent AI. La domanda non è "come dovrebbe eseguire questo un essere umano?" ma "come dovrebbe eseguire questo un agent AI?" La risposta richiede di pensare simultaneamente a tre cose: cosa l'agent AI può fare in modo affidabile, cosa l'essere umano deve rivedere prima che si propaghi oltre, e qual è il costo di un errore a ogni passaggio.
Il framework di decomposizione ha tre domande che dovrebbero essere poste per ogni compito prima che venga assegnato a un essere umano o a un'AI:
Questo compito è al di sotto della soglia dei trentacinque minuti? Se sì, è un candidato per l'esecuzione AI. Se richiede più di trentacinque minuti per un essere umano, degraderà in qualità. L'agent AI non lo farà. Un compito di trentacinque minuti per un essere umano potrebbe richiedere trenta secondi a un agent AI. Questo è una caratteristica, non un vincolo.
Il rischio di propagazione degli errori è accettabile? Se l'output del compito alimenta un sistema a valle — un CRM, un modello finanziario, un database — il costo di un errore non è il tempo necessario per correggere il compito. È la contaminazione a valle. I compiti ad alto rischio di propagazione richiedono checkpoint di revisione umana. I compiti a basso rischio di propagazione possono funzionare in autonomia.
L'output può essere verificato prima di un'azione costosa? Un agent AI che genera un report dovrebbe avere le sue conclusioni verificate spot prima che il report venga inviato a un cliente. Un agent AI che pianifica una riunione può eseguire senza revisione. Un agent AI che invia un'email a un cliente dovrebbe probabilmente avere un essere umano che la legga prima dell'invio. Il requisito di verifica è una funzione del costo di un output errato.
Il framework di scoping a tre domande
Domanda uno: questo compito è ripetibile e al di sotto dei trentacinque minuti per un essere umano? Se la risposta è no — se richiede due ore, o se è genuinamente nuovo ogni volta — non è un candidato per l'automazione AI. È un compito umano. Assegnalo all'essere umano e non cercare di automatizzarlo. La regola dei trentacinque minuti non dice "automatizza tutto". Dice "automatizza le cose in cui gli umani sono carenti a causa della loro cognizione".
Domanda due: qual è il costo di un errore a ogni passaggio? La regola dei trentacinque minuti non è un motivo per rimuovere il giudizio umano dai compiti complessi. È un motivo per essere onesti su cosa aggiunge il giudizio umano e cosa costa. Se il costo di un errore è basso, l'AI può funzionare in autonomia. Se il costo di un errore è alto, l'essere umano deve rivedere prima che l'output si propaghi.
Domanda tre: l'output richiede giudizio umano per essere valido? Alcuni output sono validi come dati puri — una lista di lead qualificati, una riunione programmata, un record CRM popolato. Alcuni output richiedono che un essere umano legga il contesto, applichi giudizio e decida se agire: una risposta delicata a un reclamo di un cliente, una raccomandazione strategica. L'AI può redigere questi. L'essere umano deve decidere.
Il cambiamento organizzativo — Dal task assignment alla system design
La regola dei trentacinque minuti cambia la conversazione sulla produttività da "come facciamo a rendere gli umani più efficienti?" a "come progettiamo sistemi in cui l'AI e gli umani fanno ciascuno ciò che fanno meglio?"
Questa è una domanda di system design, non di task management. Richiede di pensare al lavoro come a un flusso piuttosto che come a una raccolta di compiti. La regola dei trentacinque minuti applicata ai singoli compiti è un'euristica utile. Applicata a un workflow — una serie di compiti connessi da flussi di dati — diventa una questione di architettura di sistema.
Il workflow in cui la regola dei trentacinque minuti crea la maggiore leva è quello in cui la maggior parte dei compiti è al di sotto della soglia, la maggior parte degli output alimenta altri passaggi, e il costo della propagazione degli errori è compreso a ogni passaggio. Gli agent AI gestiscono i compiti a bassa soglia e alta frequenza. Gli umani gestiscono le chiamate di giudizio, l'elaborazione delle eccezioni e l'approvazione finale su tutto ciò che si propaga al di fuori del sistema.
La calibrazione onesta — Quando la regola non si applica
La regola dei trentacinque minuti è un framework decisionale, non una legge di natura.
Il lavoro creativo complesso — strategia, design, narrativa, negoziazione — non è al di sotto della soglia dei trentacinque minuti in alcun senso significativo. Non è ripetitivo. Non ha una risposta corretta che possa essere verificata. La regola dei trentacinque minuti non si applica al lavoro in cui il valore sta nel giudizio dell'essere umano.
Il lavoro dipendente dalle relazioni è in una categoria diversa. Una valutazione delle prestazioni, una conversazione difficile con un cliente, una negoziazione delicata — questi sono compiti che un essere umano deve possedere, non perché siano tecnicamente complessi, ma perché il contesto relazionale lo richiede.
La risoluzione di problemi nuovi non è un compito a soglia. Un problema che non è mai stato visto prima, che richiede ragionamento originale — questo non è automatizzabile a livello di compito, e l'agent AI che tenta di risolverlo produrrà errori confidenti che sono più dannosi del silenzio.
La domanda di produttività che vale la pena fare
La regola dei trentacinque minuti è, in definitiva, una domanda su cosa stai pagando quando assegni un lavoro a un essere umano.
Stai pagando per l'attenzione. L'attenzione umana è finita, degrada dopo trentacinque minuti di concentrazione continua su compiti ripetitivi, e costa lo stesso sia che sia fresca o affaticata. Quando assegni un compito di trentacinque minuti a un essere umano, stai pagando per attenzione fresca e ottenendo attenzione degradata dopo la soglia.
La leva di produttività non sta nel rendere gli umani più veloci. Sta nel fermare l'allocazione di attenzione umana costosa a compiti che la degradano. La domanda che vale la pena fare a ogni riunione in cui viene assegnato lavoro: questo è un compito di trentacinque minuti che dovremmo dare a un agent AI, oppure è un compito di giudizio che richiede attenzione umana?
Le organizzazioni che fanno questo correttamente non sono quelle con più strumenti AI. Sono quelle più oneste riguardo alla differenza.