Powrót do bloga
AI Automation2026-04-078 min read

Human-in-the-Loop AI — Wymagania EU AI Act i NIST, które faktycznie regulują wdrożenia agentów

EU AI Act i HITL: Praktyczny przewodnik po zgodności dla agentów AI przed terminem sierpniowym

EU AI Act i NIST AI Risk Management Framework to nie sugestie. To nie najlepsze praktyki, które można zignorować, dopóki nie opracujesz strategii dotyczącej agentów. Dla przedsiębiorstw wdrażających agentów AI oba frameworki wymagają teraz tego samego: weryfikowalnego nadzoru ludzkiego, który jest przeszkolony, mierzalny i dający się udowodnić. W przypadku systemów AI wysokiego ryzyka to wymaganie wchodzi w życie 2 sierpnia 2026 roku.

Większość przedsiębiorstw traktujących nadzór ludzki jako element zarządzania jest już niezgodna z przepisami. Ten artykuł to praktyczny przewodnik po tym, czego te frameworki faktycznie wymagają i jak zaprojektować architekturę spełniającą te wymagania przed terminem sierpniowym.


Trzy frameworki — EU AI Act, NIST AI RMF i ISO/IEC 42001

Trzy frameworki regulują nadzór AI dla przedsiębiorstw w 2026 roku. Różnią się pochodzeniem i statusem prawnym, ale zbiegają się w tym samym podstawowym wymaganiu.

EU AI Act: Większość przepisów wchodzi w życie 2 sierpnia 2026 roku. Artykuł 14 wymaga nadzoru ludzkiego dla systemów AI wysokiego ryzyka. Nadzór musi być znaczący, skuteczny i wbudowany w system — nie późniejsza weryfikacja po tym, jak agent już działał. Kategorie wysokiego ryzyka obejmują decyzje kadrowe, decyzje kredytowe i finansowe, zarządzanie infrastrukturą krytyczną oraz zastosowania w organach ścigania. Kary za naruszenie sięgają 3% globalnego rocznego obrotu. Jeśli obsługujesz klientów lub pracowników z UE, ustawa ma zastosowanie niezależnie od tego, gdzie znajduje się siedziba Twojej firmy.

NIST AI RMF: Dobrowolny w Stanach Zjednoczonych, ale coraz częściej wymagany przez kontrakty federalne i regulacje stanowe. Funkcja Govern określa, że nadzór ludzki nad systemami AI musi być utrzymywany poprzez odpowiednie mechanizmy. Kluczowe słowo to „weryfikowalny": musisz być w stanie wykazać, kto nadzorował które decyzje, z jakim uprawnieniem i jakie informacje były dostępne w danym momencie.

ISO/IEC 42001: Pierwszy globalny standard systemów zarządzania AI, opublikowany w 2023 roku. Certyfikacja sygnalizuje dojrzałość zarządzania AI i jest zgodna z NIST AI RMF w zakresie wymagań dotyczących nadzoru.

Punkt konwergencji: wszystkie trzy wymagają nadzoru ludzkiego, który jest wbudowany, nie doklejony. Dla agentów AI oznacza to architekturę HITL — człowiek musi znajdować się w ścieżce wykonawczej przed działaniami wysokiego ryzyka, nie weryfikować po fakcie.


Co weryfikowalny nadzór ludzki faktycznie oznacza dla agentów AI

Większość przedsiębiorstw uważa, że nadzór ludzki oznacza menedżera, który od czasu do czasu sprawdza, co agent zrobił. To nie jest to, czego wymagają frameworki. „Weryfikowalny" oznacza cztery rzeczy.

Zidentyfikowany człowiek: Która konkretna osoba zatwierdziła działanie? Nie „człowiek" — konkretna osoba z udokumentowanymi uprawnieniami do podjęcia tej decyzji.

Określony w czasie: W jakim przedziale czasowym zatwierdziła? Zatwierdzenie musiało nastąpić przed działaniem, a czas od zatwierdzenia musi być zalogowany.

Uzasadnienie obronne: Jakie informacje miał ten człowiek podczas zatwierdzania? Potrzebował wystarczającego kontekstu, aby podjąć świadomą decyzję — nie tylko wynik agenta, ale również uzasadnienie i odpowiednie dane.

Ślad audytu: Każde zatwierdzenie, odrzucenie i modyfikacja muszą być zalogowane i możliwe do odtworzenia. Jeśli regulator zapyta, co wydarzyło się przy konkretnym działaniu agenta w konkretnym dniu, musisz być w stanie to odtworzyć.

Mechanizmem egzekwującym jest zarządzanie tożsamością. Zarządzanie tożsamością wiąże działania agentów AI z politykami tożsamości, więc agent nie może działać bez dołączonej tożsamości ludzkiej do autoryzacji. Wstrzymuje wykonanie agenta do czasu zatwierdzenia przez konkretnego człowieka. Kieruje żądania zatwierdzenia do właściwej uprawnionej osoby na podstawie typu działania i polityki organizacyjnej. Egzekwuje okna decyzyjne z limitem czasowym. I loguje każdą interwencję na potrzeby audytu.

Bez zarządzania tożsamością masz politykę. Z nim masz zgodną architekturę.


Kategorie wysokiego ryzyka wymagające obowiązkowego HITL

Jeśli Twoi agenci AI dotykają któregokolwiek z tych procesów, HITL nie jest opcjonalny. Jest prawnie wymagany na mocy EU AI Act.

Decyzje kadrowe: Selekcja CV, ocena kandydatów, ocena wyników, rekomendacje awansu.

Decyzje finansowe: Scoring kredytowy, ubezpieczanie kredytów, ubezpieczanie, ocena ryzyka.

Usługi podstawowe: Dostęp do edukacji, mieszkalnictwa, usług publicznych.

Infrastruktura krytyczna: Zarządzanie siecią energetyczną, uzdatnianie wody, systemy transportowe.

Organy ścigania: Rozpoznawanie twarzy, narzędzia predykcyjne w policji, analiza dowodów.

Praktyczna lista wyzwalaczy HITL dla większości przedsiębiorstw: agenci wysyłający wiadomości w imieniu firmy, agenci modyfikujący dane pracowników lub klientów, agenci zatwierdzający lub odrzucający transakcje finansowe, agenci przetwarzający dane osobowe na dużą skalę oraz agenci w regulowanych branżach, w tym finansowej, opieki zdrowotnej i prawnej.

Nawet jeśli nie jesteś w UE: jeśli obsługujesz klientów z UE lub zatrudniasz mieszkańców UE, EU AI Act ma zastosowanie do tych interakcji.


Stos architektury HITL

Budowanie zgodnej architektury HITL wymaga pięciu komponentów infrastrukturalnych.

Warstwa tożsamości: Dostawca tożsamości zintegrowany z platformą orkiestracji agentów. Agent nie może działać bez zweryfikowanej tożsamości ludzkiej dołączonej do autoryzacji.

Silnik polityk: Definiuje, które działania agenta wymagają HITL na podstawie kategoryzacji ryzyka. Działania niskiego ryzyka przechodzą bez wstrzymania. Działania średniego ryzyka wyzwalają monitoring z alertem. Działania wysokiego ryzyka wyzwalają pełne wstrzymanie i zatwierdzenie.

Router zatwierdzeń: Kieruje żądanie do właściwego uprawnionego człowieka na podstawie typu działania, działu i polityki tożsamości.

Egzekwowanie limitu czasowego: Każde żądanie zatwierdzenia ma zegar SLA. Jeśli człowiek nie odpowie w wyznaczonym oknie, żądanie wygasa, a agent eskaluje.

Log audytu: Niezmienny zapis każdego zatwierdzenia, odrzucenia, modyfikacji i wygaśnięcia. Przechwytuje tożsamość człowieka, znacznik czasu, dostępne informacje i wynik.

Audytorzy będą szczególnie pytać o: tożsamość człowieka, który zatwierdził każde działanie wysokiego ryzyka, informacje dostępne dla niego w momencie zatwierdzenia, czas, jaki upłynął między żądaniem a zatwierdzeniem oraz co się stało, gdy człowiek nie odpowiedział w wyznaczonym oknie czasowym.


Termin zgodności — sierpień 2026

Większość przepisów EU AI Act wchodzi w życie 2 sierpnia 2026 roku. Od tego dnia mają zastosowanie kary: do 3% globalnego rocznego obrotu za naruszenia.

Luka w zakresie zgodności dla większości przedsiębiorstw jest znacząca. Większość organizacji wdrażających agentów obecnie nie ma architektury HITL. Mają jakiś proces weryfikacji ludzkiej, który nie spełniłby wymogu artykułu 14, że nadzór musi być znaczący, skuteczny i wbudowany w system.

Budowanie architektury HITL po wdrożeniu agentów do produkcji jest trudniejsze niż zbudowanie jej wcześniej. Agenci muszą zostać zmodyfikowani, aby wspierać przepływy wstrzymania i zatwierdzenia. Polityki tożsamości muszą być zdefiniowane. Uprawnieni ludzie muszą być wyznaczeni i przeszkoleni. Robienie tego równolegle z uruchomionymi agentami w produkcji tworzy ryzyko operacyjne.

Trzy kroki budowania zgodności:

Po pierwsze, skataloguj swoich agentów. Które dotykają procesów wysokiego ryzyka? Ten katalog staje się Twoją mapą drogową implementacji HITL.

Po drugie, wyznacz uprawnionych ludzi. Którzy ludzie mogą zatwierdzać które działania? To jest pytanie o projekt organizacyjny, nie o IT.

Po trzecie, zbuduj infrastrukturę HITL. Wiązanie tożsamości, routing zatwierdzeń, limitowanie czasowe, logowanie audytu. Infrastruktura musi być na miejscu przed terminem sierpniowym.

Zacznij od katalogu. Jeśli masz agentów AI w produkcji i nie masz architektury zgodnej z HITL, masz około czterech miesięcy.

Ready to let AI handle your busywork?

Book a free 20-minute assessment. We'll review your workflows, identify automation opportunities, and show you exactly how your AI corps would work.

From $199/month ongoing, cancel anytime. Initial setup is quoted based on your requirements.