Powrót do bloga
AI Automation2026-04-047 min read

Reguła 35 minut — jak zdecydować, co zautomatyzować przy użyciu AI w 2026 roku

Jest liczba, którą większość frameworków produktywności ignoruje. Trzydzieści pięć minut.

Toby Ord, filozof z Oxford i autor książki The Precipice, opracował framework, który nazywa progiem nudy — moment, w którym człowiek pracujący nad zadaniem powtarzalnym lub płytkim traci koncentrację i zaczyna popełniać błędy. Jego obserwacja jest taka, że większość pracy poznawczej, gdy wykonywana jest w sposób ciągły przez ponad trzydzieści pięć minut, traci na jakości. Błędy nie są dramatyczne. Są ciche — formuła w arkuszu kalkulacyjnym, która jest nieznacznie nieprawidłowa, e-mail, który jest nieznacznie nieodpowiedni w tonie, wprowadzenie danych, które jest nieznacznie niewyrównane. Praca zostaje wykonana. Jakość jest poniżej tego, co powinna być.

Badania AIMultiple przekładają to na praktyczną regułę decyzyjną: każde zadanie, które trwa dłużej niż trzydzieści pięć minut i ma powtarzalny wzorzec, powinno być ocenione pod kątem automatyzacji AI lub delegacji. Próg trzydziestu pięciu minut to nie hack produktywności. To limit poznawczy. Gdy zlecasz człowiekowi pracę, którą agent AI może wykonać w trzydzieści pięć minut, płacisz wynagrodzenie ludzkie za degradującą się uwagę.

To zmienia decyzję o automatyzacji z „co możemy zautomatyzować?" na „czego powinniśmy w ogóle przestać wymagać od ludzi?". A ta odpowiedź, szczerze udzielona, to siła produktywności, której większość organizacji nie wykorzystuje.


Problem propagacji błędów — dlaczego reguła trzydziestu pięciu minut ma znaczenie

Badania Galilea nad kaskadami propagacji błędów opisują, dlaczego próg trzydziestu pięciu minut to nie tylko kwestia efektywności — to kwestia jakości błędów.

Gdy człowiek popełnia błąd w zadaniu, które było wykonywane przez czterdzieści pięć minut, błąd nie pozostaje w minucie czterdziestej piątej. Propaguje się do przodu, zanieczyszczając każdy kolejny krok. Błędne odwołanie do komórki w modelu arkusza kalkulacyjnego w minucie trzydziestej zanieczyszcza analizę w minucie pięćdziesiątej. Nieprawidłowo zakodowane wprowadzenie danych na początku migracji danych zanieczyszcza bazę danych na końcu. Człowiek jest zmęczony, popełnia małe błędy, a każdy błąd kumuluje się w systemie, który buduje.

Agenci AI nie mają progu nudy. Nie degradują po trzydziestu pięciu minutach. Nie popełniają więcej błędów przy setnej iteracji niż przy pierwszej. Gdy zadanie jest poniżej progu trzydziestu pięciu minut i ma powtarzalny wzorzec, argument jakościowy za wykonaniem przez AI zamiast przez człowieka nie jest marginalny — jest strukturalny.

Kaskada propagacji błędów jest najbardziej destrukcyjna w zadaniach, gdzie wynik bezpośrednio trafia do innego systemu. Błędna aktualizacja CRM zanieczyszcza dane w pipeline sprzedażowym. Błędne założenie w modelu finansowym zanieczyszcza dane w budżecie. E-mail do klienta o nieodpowiednim tonie tworzy problem relacyjny, który wymaga czasu kierownictwa na rozwiązanie. Koszt błędu to nie czas potrzebny na jego naprawienie. To zanieczyszczenie „w dół strumienia".

Siła produktywności nie polega więc na automatyzacji zadania. Polega na zapobieganiu kaskadzie błędów, zanim się rozpocznie.


Dekompozycja zadań w stylu AI-native — dzielenie pracy poniżej progu

Praktyczne zastosowanie reguły trzydziestu pięciu minut wymaga dyscypliny, którą większość organizacji jeszcze nie wykształciła: dekompozycja zadań w stylu AI-native.

Tradycyjna dekompozycja zadań — z metodologii zarządzania projektami — dzieli pracę na logiczne jednostki przeznaczone do wykonania przez ludzi. Jednostka pracy jest rozmiarowana pod kątem ludzkich ram uwagowych, ludzkiego planowania, ludzkich wzorców zmęczenia.

Dekompozycja zadań w stylu AI-native dzieli pracę na jednostki rozmiarowane pod kąta agentów AI. Pytanie brzmi nie „jak człowiek powinien to wykonać?", ale „jak agent AI powinien to wykonać?". Odpowiedź wymaga jednoczesnego myślenia o trzech rzeczach: co agent AI może wykonać niezawodnie, co człowiek musi sprawdzić przed propagacją dalej, oraz jaki byłby koszt błędu na każdym etapie.

Framework dekompozycji zawiera trzy pytania, które należy zadać przy każdym zadaniu przed przypisaniem go do człowieka lub agenta AI:

Czy to zadanie jest poniżej progu trzydziestu pięciu minut? Jeśli tak, jest kandydatem do wykonania przez AI. Jeśli człowiek potrzebuje na nie więcej niż trzydzieści pięć minut, jakość pracy zacznie się degradować. Agent AI nie będzie miał tego problemu. Zadanie, które zajmuje człowiekowi trzydzieści pięć minut, może zająć agentowi AI trzydzieści sekund. To cecha, nie ograniczenie.

Czy ryzyko propagacji błędu jest akceptowalne? Jeśli wynik zadania trafia do systemu „w dół strumienia" — CRM, modelu finansowego, bazy danych — koszt błędu to nie czas potrzebny na naprawienie zadania. To zanieczyszczenie „w dół strumienia". Zadania o wysokim ryzyku propagacji wymagają bramek przeglądu przez człowieka. Zadania o niskim ryzyku propagacji mogą działać autonomicznie.

Czy wynik można zweryfikować przed podjęciem kosztownej akcji? Agent AI generujący raport powinien mieć zweryfikowane wnioski metodą spot-check, zanim raport trafi do klienta. Agent AI planujący spotkanie może działać bez przeglądu. Agent AI wysyłający e-mail do klienta powinien prawdopodobnie mieć go przeczytanego przez człowieka przed wysyłką. Wymaganie weryfikacji jest funkcją kosztu nieprawidłowego wyniku.


Trójparametrowy framework scopingowy

Pytanie pierwsze: Czy to zadanie jest powtarzalne i trwa krócej niż trzydzieści pięć minut dla człowieka? Jeśli odpowiedź brzmi nie — jeśli trwa dwie godziny lub jest za każdym razem naprawdę nowe — nie jest kandydatem do automatyzacji AI. To zadanie dla człowieka. Przypisz je do człowieka i nie próbuj go automatyzować. Reguła trzydziestu pięciu minut nie mówi „automatyzuj wszystko". Mówi „automatyzuj rzeczy, w których ludzie są słabi ze względu na swoją cognicję".

Pytanie drugie: Jaki jest koszt błędu na każdym etapie? Reguła trzydziestu pięciu minut to nie powód, by usuwać ludzki osąd ze złożonych zadań. To powód, by być szczerym co do tego, co ludzki osąd wnosi i co to kosztuje. Jeśli koszt błędu jest niski, AI może działać autonomicznie. Jeśli koszt błędu jest wysoki, człowiek musi sprawdzić wynik przed propagacją.

Pytanie trzecie: Czy wynik wymaga ludzkiego osądu, żeby był wartościowy? Niektóre wyniki są wartościowe jako czyste dane — lista zakwalifikowanych leadów, zaplanowane spotkanie, wypełniony rekord w CRM. Niektóre wyniki wymagają, by człowiek przeczytał kontekst, zastosował osąd i zdecydował, czy działać: wrażliwa odpowiedź na reklamację klienta, strategiczna rekomendacja. AI może to zredagować. Człowiek musi zdecydować.


Zmiana organizacyjna — od przypisywania zadań do projektowania systemów

Reguła trzydziestu pięciu minut zmienia rozmowę o produktywności z „jak sprawić, by ludzie byli bardziej efektywni?" na „jak projektować systemy, w których AI i ludzie robią to, co potrafią najlepiej?".

To pytanie o projektowanie systemów, nie o zarządzanie zadaniami. Wymaga myślenia o pracy jako o przepływie, a nie jako o zbiorze zadań. Reguła trzydziestu pięciu minut zastosowana do pojedynczych zadań to użyteczna heurystyka. Zastosowana do workflow — serii zadań połączonych przepływami danych — staje się pytaniem o architekturę systemu.

Workflow, w którym reguła trzydziestu pięciu minut tworzy największą siłę, to taki, gdzie większość zadań jest poniżej progu, większość wyników trafia do innych kroków, a koszt propagacji błędu jest znany na każdym etapie. Agenci AI zajmują się zadaniami poniżej progu, wysokiej częstotliwości. Ludzie zajmują się zadaniami wymagającymi osądu, przetwarzaniem wyjątków i ostateczną akceptacją wszystkiego, co propaguje się poza system.


Szczerna kalibracja — gdy reguła nie ma zastosowania

Reguła trzydziestu pięciu minut to framework decyzyjny, nie prawo natury.

Złożona praca twórcza — strategia, design, narracja, negocjacje — nie jest poniżej progu trzydziestu pięciu minut w żadnym znaczącym sensie. Nie jest powtarzalna. Nie ma prawidłowej odpowiedzi, którą można zweryfikować. Reguła trzydziestu pięciu minut nie ma zastosowania do pracy, której wartość tkwi w osądzie człowieka.

Praca zależna od relacji należy do innej kategorii. Ocena okresowa, trudna rozmowa z klientem, wrażliwe negocjacje — to zadania, które człowiek musi w pełni przejąć, nie dlatego, że są technicznie złożone, ale dlatego, że kontekst relacyjny tego wymaga.

Rozwiązywanie nowych problemów nie jest zadaniem progowym. Problem, który nigdy nie był widziany, wymagający oryginalnego rozumowania — tego nie można zautomatyzować na poziomie zadania, a agent AI, który spróbuje to wykonać, wygeneruje pewne błędy, które są bardziej destrukcyjne niż cisza.


Pytanie o produktywność, które warto zadać

Reguła trzydziestu pięciu minut to ostatecznie pytanie o to, za co płacisz, gdy przypisujesz pracę człowiekowi.

Płacisz za uwagę. Ludzka uwaga jest skończona, degraduje się po trzydziestu pięciu minutach ciągłej koncentracji na zadaniach powtarzalnych i kosztuje tyle samo, czy jest świeża, czy zmęczona. Gdy przypisujesz człowiekowi trzydziestopięciominutowe zadanie, płacisz za świeżą uwagę i dostajesz uwagę degradującą się po przekroczeniu progu.

Siła produktywności nie polega na przyspieszaniu ludzi. Polega na powstrzymaniu alokacji drogiej ludzkiej uwagi do zadań, które ją degradują. Pytanie warte zadania na każdym spotkaniu, gdzie praca jest przypisywana: czy to zadanie trwające trzydzieści pięć minut, które powinniśmy zlecić agentowi AI, czy to zadanie wymagające osądu, które wymaga ludzkiej uwagi?

Organizacje, które robią to dobrze, to nie te z największą liczbą narzędzi AI. To te, które są najbardziej szczere w kwestii różnicy.

Ready to let AI handle your busywork?

Book a free 20-minute assessment. We'll review your workflows, identify automation opportunities, and show you exactly how your AI corps would work.

From $199/month ongoing, cancel anytime. Initial setup is quoted based on your requirements.