Unijny Akt o Sztucznej Inteligencji (AI Act, Rozporządzenie UE 2024/1689) wchodzi w życie etapami – pierwsze zakazy obowiązują od 2 lutego 2025 roku, a pełny zakres przepisów dotyczących systemów wysokiego ryzyka ma być stosowany od 2 sierpnia 2026 roku. Jako rozporządzenie, AI Act działa w Polsce bezpośrednio i nie wymaga transpozycji w klasycznym sensie. Mimo to państwa członkowskie muszą dostosować krajowe struktury administracyjne i przepisy proceduralne, aby zapewnić skuteczne stosowanie nowych regulacji – stąd konieczność uchwalenia odrębnej ustawy krajowej.
Harmonogram prac legislacyjnych

Prace nad polską ustawą o systemach sztucznej inteligencji rozpoczęło Ministerstwo Cyfryzacji już na początku 2024 roku, kiedy Parlament Europejski zatwierdził projekt AI Act. Pierwsze publiczne konsultacje ogłoszono 2 kwietnia 2024 roku, a projekt ustawy opublikowano 16 października 2024 roku. Przez kolejne miesiące dokument przechodził przez kolejne szczeble rządowego procesu legislacyjnego – w tym przez Komitet do Spraw Europejskich – zanim trafił pod głosowanie całego rządu.
Przełomowy moment nastąpił 31 marca 2026 roku: Rada Ministrów przyjęła projekt ustawy opracowany przez Ministerstwo Cyfryzacji. Po przyjęciu przez rząd projekt skierowano do prac w Sejmie, gdzie – według doniesień z końca kwietnia 2026 roku – ruszyły pierwsze czytania. Warto podkreślić, że termin wyznaczony przez sam AI Act na ustanowienie krajowego organu nadzoru minął już 2 sierpnia 2025 roku, a projekt wciąż nie stał się obowiązującym prawem. Polska jest więc – podobnie jak kilka innych państw UE – opóźniona względem harmonogramu rozporządzenia.
Co zawiera projekt ustawy?
Ustawa o systemach sztucznej inteligencji ma charakter przede wszystkim ustrojowy i proceduralny – precyzuje, kto i w jaki sposób będzie nadzorował stosowanie AI Act w Polsce, jak będą przebiegać postępowania administracyjne i jakie sankcje grożą za naruszenia przepisów. Projekt wprowadza też mechanizm składania i rozpatrywania skarg przez osoby, których prawa mogą być naruszane przez systemy AI. Fundacja Panoptykon w swojej opinii z 2025 roku wskazała na potrzebę wzmocnienia tych gwarancji procesowych, m.in. w zakresie niezależności przyszłego organu nadzoru.
Ustawa przewiduje ponadto stworzenie tzw. piaskownicy regulacyjnej – kontrolowanego środowiska testowego, w którym przedsiębiorcy będą mogli sprawdzać zgodność swoich rozwiązań AI z przepisami przed ich wprowadzeniem na rynek. Jest to rozwiązanie analogiczne do już funkcjonujących piaskownic w Hiszpanii czy Finlandii.
Kto będzie nadzorcą AI w Polsce? KRiBSI
Kluczową instytucją przewidzianą w projekcie jest Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, w skrócie KRiBSI. Komisja ma pełnić rolę krajowego organu nadzoru rynku AI w rozumieniu AI Act – będzie prowadziła postępowania administracyjne, wydawała decyzje, nakładała sankcje za nieprzestrzeganie przepisów i koordynowała nadzór nad systemami sztucznej inteligencji w Polsce.
KRiBSI ma być organem kolegialnym. W jej kierownictwie zasiądą przedstawiciele czterech istniejących już instytucji: Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), Komisji Nadzoru Finansowego (KNF), Krajowej Rady Radiofonii i Telewizji (KRRiT) oraz Urzędu Komunikacji Elektronicznej (UKE). Takie podejście ma z jednej strony zapewnić wielosektorową perspektywę regulacyjną, z drugiej – ograniczyć koszty tworzenia zupełnie nowej instytucji. Komisja ma działać jako niezależny organ nadzoru i kontaktować się bezpośrednio z unijnym Urzędem ds. AI (EU AI Office) powołanym przy Komisji Europejskiej.
Porównanie z podejściem innych krajów UE
Kraje UE przyjęły wyraźnie zróżnicowane modele instytucjonalne. Poniższa tabela ilustruje główne różnice:
| Kraj | Krajowa ustawa o AI | Organ nadzoru rynku (MSA) | Model organizacyjny |
|---|---|---|---|
| Polska | W trakcie prac w Sejmie (proj. przyjęty przez rząd 31.03.2026) | KRiBSI (planowana) | Nowy organ kolegialny, z udziałem UOKiK, KNF, KRRiT, UKE |
| Hiszpania | Brak (AESIA powołana dekretem królewskim już w 2023 r.) | AESIA (Agencia Española de Supervisión de IA) | Wyspecjalizowana agencja, piaskownica regulacyjna czynna od 2024 r. |
| Finlandia | Ustawa uchwalona (projekt w parlamencie od 2024 r.) | Kilka istniejących organów sektorowych (Traficom jako punkt kontaktowy) | Model rozproszony, organ ds. ochrony danych pełni kluczową rolę |
| Austria | Brak odrębnej ustawy; nadzór przez RTR i inne organy | Wiele organów sektorowych, koordynacja przez Federalny Urząd Kanclerski | Biuro Obsługi AI przy RTR jako centrum informacyjne |
| Niemcy | Projekt w opracowaniu (spodziewany akt implementacyjny) | Bundesnetzagentur (BNetzA) jako główny MSA | Istniejący regulator rynku + organy sektorowe |
| Francja | Brak (nie planuje odrębnej ustawy) | Nie wyznaczono (ponad 5 miesięcy po terminie) | Model zdecentralizowany, CNIL i ANSM wśród planowanych MSA |
Widoczna jest wyraźna różnica między krajami, które zdecydowały się na powołanie nowej, wyspecjalizowanej agencji (jak Hiszpania z AESIA), a tymi, które – jak Polska, Finlandia czy Niemcy – preferują model oparty na istniejących instytucjach regulacyjnych. Podejście z nowym, wyspecjalizowanym organem daje potencjalnie większą spójność nadzoru, jednak wymaga czasu i zasobów na zbudowanie od zera aparatu eksperckiego.
Terminowe wyzwania i ryzyka
Polska nie jest wyjątkiem w kontekście opóźnień – Francja nie wyznaczyła swoich organów nadzoru nawet ponad pięć miesięcy po terminie 2 sierpnia 2025 roku, a Niemcy wciąż finalizowały ustawę implementacyjną na początku 2025 roku. Niemniej AI Act jako rozporządzenie obowiązuje bezpośrednio i podmioty stosujące systemy AI są już teraz prawnie związane zakazami z art. 5 (np. dotyczącymi systemów oceny społecznej czy manipulacji podprogowej), niezależnie od postępu prac nad ustawami krajowymi.
Brak formalnie powołanego organu nadzoru oznacza w praktyce lukę egzekucyjną – przepisy obowiązują, ale nie ma jeszcze krajowej instytucji uprawnionej do ich egzekwowania w pełnym zakresie. Jeśli Sejm uchwali ustawę w terminie umożliwiającym wejście w życie przed 2 sierpnia 2026 roku, Polska zdąży z wyznaczeniem organu nadzoru przed wejściem w życie głównej paczki przepisów dotyczących systemów wysokiego ryzyka. Harmonogram jest jednak napięty.
Praktyczne znaczenie dla firm i instytucji
Dla przedsiębiorców rozwijających lub wdrażających systemy AI w Polsce najważniejsze są trzy kwestie wynikające z procedowanej ustawy:
- Obowiązki dostawców i podmiotów stosujących systemy AI wysokiego ryzyka zaczną być aktywnie egzekwowane z chwilą powołania KRiBSI i wyposażenia jej w pełne kompetencje sankcyjne.
- Piaskownica regulacyjna umożliwi testowanie nowych produktów AI w kontrolowanych warunkach przed ich rynkowym debiutem – co może być szczególnie istotne dla startupów i MŚP.
- Mechanizm skarg umożliwi osobom fizycznym dochodzenie swoich praw w postępowaniu administracyjnym, jeśli uznają, że decyzja podjęta z pomocą systemu AI narusza ich interesy.
Warto śledzić postępy prac sejmowych – ustawa jest skierowana do Sejmu, ale termin jej uchwalenia nie jest jeszcze przesądzony. Ministerstwo Cyfryzacji publikuje aktualizacje na stronie gov.pl/web/cyfryzacja/wdrozenie-aktu-o-ai.
Źródła
- Gov.pl – Projekt ustawy o systemach sztucznej inteligencji przyjęty przez Radę Ministrów
- Rzeczpospolita – Rząd przyjął projekt ustawy o systemach sztucznej inteligencji
- Rzeczpospolita – Polska tworzy urząd do nadzoru nad AI
- Techspresso – Rząd przyjął ustawę wdrażającą unijny AI Act
- Panoptykon – Polska reguluje systemy AI. Co trzeba poprawić w projekcie ustawy?
- CyberPolicy NASK – Wdrożenie Aktu o sztucznej inteligencji w państwach UE
- Technology’s Legal Edge – State of the Act: EU AI Act implementation in key Member States
- AI Regulation – France Still Without Designated National Competent Authorities
- Komisja Europejska – Organy nadzoru rynku na podstawie AI Act
- Gov.pl – Wdrożenie Aktu o AI (Ministerstwo Cyfryzacji)





