Rozporządzenie UE 2024/1689, powszechnie znane jako AI Act, weszło w życie w sierpniu 2024 roku i od lutego 2025 roku część jego przepisów zaczęła obowiązywać bezpośrednio. Każda firma działająca na terenie Unii Europejskiej, która wdraża lub korzysta z systemu sztucznej inteligencji, musi wiedzieć, do jakiej kategorii ryzyka należy jej rozwiązanie – bo od tego zależy zakres obowiązków i potencjalnych kar. Problem w tym, że większość osób odpowiedzialnych za produkty AI nie jest prawnikami i staje przed pytaniem: od czego w ogóle zacząć?
Klasyfikacja nie opiera się na technologii, lecz na celu i kontekście użycia systemu. Ten sam model językowy może być chatbotem niskiego ryzyka w dziale marketingu albo systemem wysokiego ryzyka w dziale rekrutacji – wszystko zależy od tego, na czyje życie i w jaki sposób wpływają jego wyniki.
Cztery kategorie, które musisz znać
AI Act dzieli systemy AI na cztery poziomy ryzyka. Znajomość tych kategorii to punkt startowy każdej klasyfikacji:
- Systemy zakazane – całkowicie niedozwolone. Obejmują m.in. masowy social scoring, manipulację podprogową, rozpoznawanie emocji w miejscu pracy czy masową identyfikację biometryczną w przestrzeni publicznej. Zakaz stosowania obowiązuje od lutego 2025 roku.
- Systemy wysokiego ryzyka – mogą być stosowane, ale pod rygorystycznymi warunkami: dokumentacja techniczna, nadzór człowieka, testy bezpieczeństwa, rejestracja w unijnej bazie danych. Przykłady: systemy rekrutacyjne, ocena zdolności kredytowej, systemy stosowane w edukacji czy medycynie.
- Systemy ograniczonego ryzyka – podlegają głównie obowiązkom przejrzystości. Użytkownik musi wiedzieć, że rozmawia z AI. Typowy przykład to chatbot obsługi klienta oparty na dużym modelu językowym.
- Systemy minimalnego ryzyka – filtry spamu, rekomendacje produktowe w e-commerce, narzędzia do analizy danych wewnętrznych. Brak szczególnych wymogów regulacyjnych, choć dobre praktyki zawsze obowiązują.
10 pytań, które musisz sobie zadać
Zamiast od razu szukać prawnika, zacznij od sesji warsztatowej z product ownerem i liderem technicznym. Poniższy zestaw pytań pozwoli wstępnie ustalić kategorię ryzyka, zanim trafi to do analizy prawnej:
- 1. Co konkretnie robi ten system? Opisz w trzech zdaniach: kto używa, kiedy, w jakim celu. Jeśli nie potrafisz tego opisać prostym językiem, klasyfikacja będzie niemożliwa.
- 2. Na kogo wpływa wynik systemu? Czy odbiorcami są klienci indywidualni, pracownicy, pacjenci, uczniowie? Grupy wrażliwe (dzieci, osoby z niepełnosprawnościami) automatycznie podnoszą poziom ryzyka.
- 3. Czy wynik systemu prowadzi do decyzji wobec konkretnej osoby? Różnica między „sortowaniem listy produktów” a „odrzuceniem kandydata” jest kluczowa. Jeśli wynik wpływa na prawa lub szanse konkretnego człowieka, ryzyko rośnie.
- 4. Czy system działa automatycznie, czy tylko rekomenduje? System w pełni automatyczny (bez przeglądu człowieka) jest klasyfikowany surowiej niż narzędzie wspomagające decyzję.
- 5. W jakim obszarze działa system? AI Act wymienia w Załączniku III obszary wysokiego ryzyka: zatrudnienie i rekrutacja, edukacja, usługi finansowe, opieka zdrowotna, wymiar sprawiedliwości, infrastruktura krytyczna. Jeśli Twój system trafia do jednego z tych obszarów, masz silny sygnał ostrzegawczy.
- 6. Czy system przetwarza dane biometryczne? Rozpoznawanie twarzy, analiza głosu, dane dotyczące cech fizycznych – każde z tych zastosowań wymaga szczególnej uwagi i może oznaczać wysokie lub zakazane ryzyko.
- 7. Czy system profiluje użytkowników? Profilowanie, czyli przypisywanie osobom cech, wzorców zachowań lub prognoz na podstawie ich danych, jest jednym z kluczowych czynników podnoszących poziom ryzyka.
- 8. Czy użytkownicy wiedzą, że mają do czynienia z AI? Brak ujawnienia interakcji z systemem AI to naruszenie obowiązku przejrzystości nawet dla systemów ograniczonego ryzyka.
- 9. Jaką rolę pełni Twoja organizacja – dostawcy czy użytkownika? AI Act rozróżnia providers (twórców systemu) i deployers (wdrażających cudze rozwiązanie). Obowiązki są inne dla każdej grupy.
- 10. Czy system może działać inaczej niż zakładałeś? Jeśli istnieje ryzyko dryftu modelu, błędnych wyników lub stronniczości danych treningowych, musisz to uwzględnić przy klasyfikacji i dokumentacji.
Trzy konkretne przykłady z życia
Teoria nabiera sensu przy konkretnych przypadkach. Poniżej trzy systemy, które pojawiają się w niemal każdej firmie, i ich rzeczywista klasyfikacja w świetle AI Act:
| System AI | Klasyfikacja | Główny obowiązek |
|---|---|---|
| Chatbot obsługi klienta (LLM) | Ograniczone ryzyko (art. 50) | Poinformowanie użytkownika, że rozmawia z AI |
| System rekrutacyjny (selekcja CV, scoring kandydatów) | Wysokie ryzyko (Załącznik III, pkt 4) | Dokumentacja techniczna, nadzór ludzki, rejestracja w bazie EU |
| Silnik rekomendacji produktowych w e-commerce | Minimalne ryzyko | Brak szczególnych wymogów, chyba że skierowany do grup wrażliwych |
Chatbot obsługi klienta to najczęstszy przypadek. Chatboty oparte na dużych modelach językowych są co do zasady klasyfikowane jako systemy ograniczonego ryzyka. Kluczowy obowiązek to przejrzystość: użytkownik musi wiedzieć, że po drugiej stronie nie ma człowieka. Wyjątek pojawia się, gdy chatbot udziela porad medycznych, prawnych lub finansowych – wtedy granica ryzyka przesuwa się w górę.
System rekrutacyjny to inny przypadek. Narzędzia AI używane do analizy CV, scoringu kandydatów, targetowania ogłoszeń o pracę czy podejmowania decyzji o zaproszeniu na rozmowę wpadają bezpośrednio do kategorii wysokiego ryzyka zgodnie z Załącznikiem III AI Act. Oznacza to konieczność m.in. prowadzenia szczegółowej dokumentacji technicznej, zapewnienia nadzoru człowieka nad wynikami i rejestracji systemu w unijnej bazie danych. To nie jest opcja – to obowiązek prawny, który zaczął obowiązywać od sierpnia 2025 roku.
Silnik rekomendacji produktowych (np. „klienci kupili też…”) to klasyczne minimalne ryzyko, pod warunkiem że nie jest ukierunkowany na grupy wrażliwe i nie wpływa na prawa konkretnych osób. Jeśli jednak algorytm różnicuje ceny lub oferty na podstawie danych demograficznych, sytuacja może się zmienić i warto to sprawdzić.
Co zrobić, gdy nie jesteś pewien kategorii?

Wiele systemów AI nie pasuje do żadnej kategorii w sposób oczywisty. Algorytm analizujący nastrój klientów w centrum obsługi może być chatbotem ograniczonego ryzyka albo systemem monitorowania pracowników wysokiego ryzyka – zależnie od tego, po której stronie jest uruchomiony i kto widzi wyniki. W takiej sytuacji masz kilka opcji działania:
- Zasada ostrożności przy dokumentacji – jeśli wahasz się między minimalnym a ograniczonym ryzykiem, zastosuj wymogi wyższej kategorii. Nadmiarowa dokumentacja to koszt, brak jej to kara finansowa.
- Sandboxing regulacyjny – AI Act (art. 57–58) nakłada na państwa członkowskie obowiązek uruchomienia co najmniej jednej regulacyjnej piaskownicy AI do 2 sierpnia 2026 roku. Piaskownica to środowisko, w którym możesz testować system pod nadzorem organu regulacyjnego bez pełnych obowiązków compliance. Dla startupów i MŚP to szczególnie atrakcyjna opcja, bo chroni przed karami administracyjnymi, o ile działasz w dobrej wierze zgodnie z wytycznymi piaskownicy.
- Wewnętrzna sesja klasyfikacyjna – przeprowadź warsztat z udziałem minimum product ownera, lidera technicznego i – jeśli dostępny – prawnika. Sporządź mapę decyzji: która decyzja biznesowa jest wspierana, jaka jest rola systemu (automatyczna, rekomendacyjna, informacyjna) i na kogo wpływa wynik.
- Konsultacja z prawnikiem specjalizującym się w AI Act – nie musisz angażować prawnika od razu, ale jeśli system trafia do obszarów Załącznika III (zatrudnienie, edukacja, finanse, zdrowie), to moment na weryfikację prawną przed wdrożeniem, a nie po. Koszt konsultacji jest ułamkiem potencjalnej kary, która może sięgać 3–15 mln euro lub 1–3% globalnego obrotu firmy.
- Monitorowanie po wdrożeniu – klasyfikacja nie jest jednorazowym aktem. Jeśli system zmienia zakres działania, jest trenowany na nowych danych albo trafia do nowego kontekstu użycia, klasyfikacja wymaga ponownej weryfikacji.
Praktyczny schemat działania
Zanim zaangażujesz prawnika, wykonaj te kroki samodzielnie:
- Opisz system w 3–4 zdaniach: cel, użytkownicy, kontekst, wynik.
- Sprawdź, czy obszar działania systemu pojawia się w Załączniku III AI Act.
- Odpowiedz na 10 pytań z powyższej listy i zanotuj odpowiedzi – to będzie baza do dalszej analizy prawnej.
- Jeśli wynik jest niejednoznaczny, zrób wstępny audyt dokumentacji technicznej i sprawdź dostępność krajowego sandboxu AI.
- Przed finalnym wdrożeniem – szczególnie w obszarach wysokiego ryzyka – skonsultuj się z prawnikiem. Nie żeby „zabezpieczyć papier”, ale żeby realnie zrozumieć obowiązki operacyjne.
Klasyfikacja systemu AI to nie jednorazowe ćwiczenie compliance. To ciągły proces, który musi nadążać za zmianami w produkcie, danych i kontekście użycia. Firmy, które traktują go jako rutynę operacyjną – a nie kryzysową reakcję na kontrolę – są w zdecydowanie lepszej pozycji zarówno prawnie, jak i rynkowo.
Źródła
- Kwalifikacja systemów zgodnie z AI Act – CRIDO
- EU AI Act w pigułce: jak sklasyfikować system – PolskieKino.com.pl
- Chatboty w obsłudze klienta – szanse, ryzyka i granice odpowiedzialności – PARP
- AI w rekrutacji – analiza regulacyjna w świetle RODO i AI Act
- AI Act w HR i rekrutacji – TRAFFIT
- Piaskownica regulacyjna (sandbox) w prawie UE i polskim – LexAlert
- Chatboty a Europejskie Rozporządzenie o Sztucznej Inteligencji – FlowHunt
- Systemy AI wysokiego ryzyka w EU AI Act – The Thinking Company
- Regulacje sztucznej inteligencji UE – lome.legal
- Czym są systemy AI wysokiego ryzyka według AI Act – Sawaryn






