Polska ustawa wdrażająca AI Act – co wiemy i kiedy będzie gotowa?

AI act

Informacja

Ten tekst jest częścią naszego Kompendium o AI ACT. Jeśli szukasz pełnego harmonogramu na rok 2026, checklist do wdrożenia lub słownika pojęć, zajrzyj na stronę główną przewodnika.

Unijny Akt o Sztucznej Inteligencji (AI Act, Rozporządzenie UE 2024/1689) wchodzi w życie etapami – pierwsze zakazy obowiązują od 2 lutego 2025 roku, a pełny zakres przepisów dotyczących systemów wysokiego ryzyka ma być stosowany od 2 sierpnia 2026 roku. Jako rozporządzenie, AI Act działa w Polsce bezpośrednio i nie wymaga transpozycji w klasycznym sensie. Mimo to państwa członkowskie muszą dostosować krajowe struktury administracyjne i przepisy proceduralne, aby zapewnić skuteczne stosowanie nowych regulacji – stąd konieczność uchwalenia odrębnej ustawy krajowej.

Reklama

Harmonogram prac legislacyjnych

ustawa lowcy ai lokalne ai

Prace nad polską ustawą o systemach sztucznej inteligencji rozpoczęło Ministerstwo Cyfryzacji już na początku 2024 roku, kiedy Parlament Europejski zatwierdził projekt AI Act. Pierwsze publiczne konsultacje ogłoszono 2 kwietnia 2024 roku, a projekt ustawy opublikowano 16 października 2024 roku. Przez kolejne miesiące dokument przechodził przez kolejne szczeble rządowego procesu legislacyjnego – w tym przez Komitet do Spraw Europejskich – zanim trafił pod głosowanie całego rządu.

Przełomowy moment nastąpił 31 marca 2026 roku: Rada Ministrów przyjęła projekt ustawy opracowany przez Ministerstwo Cyfryzacji. Po przyjęciu przez rząd projekt skierowano do prac w Sejmie, gdzie – według doniesień z końca kwietnia 2026 roku – ruszyły pierwsze czytania. Warto podkreślić, że termin wyznaczony przez sam AI Act na ustanowienie krajowego organu nadzoru minął już 2 sierpnia 2025 roku, a projekt wciąż nie stał się obowiązującym prawem. Polska jest więc – podobnie jak kilka innych państw UE – opóźniona względem harmonogramu rozporządzenia.

Co zawiera projekt ustawy?

Ustawa o systemach sztucznej inteligencji ma charakter przede wszystkim ustrojowy i proceduralny – precyzuje, kto i w jaki sposób będzie nadzorował stosowanie AI Act w Polsce, jak będą przebiegać postępowania administracyjne i jakie sankcje grożą za naruszenia przepisów. Projekt wprowadza też mechanizm składania i rozpatrywania skarg przez osoby, których prawa mogą być naruszane przez systemy AI. Fundacja Panoptykon w swojej opinii z 2025 roku wskazała na potrzebę wzmocnienia tych gwarancji procesowych, m.in. w zakresie niezależności przyszłego organu nadzoru.

Ustawa przewiduje ponadto stworzenie tzw. piaskownicy regulacyjnej – kontrolowanego środowiska testowego, w którym przedsiębiorcy będą mogli sprawdzać zgodność swoich rozwiązań AI z przepisami przed ich wprowadzeniem na rynek. Jest to rozwiązanie analogiczne do już funkcjonujących piaskownic w Hiszpanii czy Finlandii.

Kto będzie nadzorcą AI w Polsce? KRiBSI

Kluczową instytucją przewidzianą w projekcie jest Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, w skrócie KRiBSI. Komisja ma pełnić rolę krajowego organu nadzoru rynku AI w rozumieniu AI Act – będzie prowadziła postępowania administracyjne, wydawała decyzje, nakładała sankcje za nieprzestrzeganie przepisów i koordynowała nadzór nad systemami sztucznej inteligencji w Polsce.

KRiBSI ma być organem kolegialnym. W jej kierownictwie zasiądą przedstawiciele czterech istniejących już instytucji: Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), Komisji Nadzoru Finansowego (KNF), Krajowej Rady Radiofonii i Telewizji (KRRiT) oraz Urzędu Komunikacji Elektronicznej (UKE). Takie podejście ma z jednej strony zapewnić wielosektorową perspektywę regulacyjną, z drugiej – ograniczyć koszty tworzenia zupełnie nowej instytucji. Komisja ma działać jako niezależny organ nadzoru i kontaktować się bezpośrednio z unijnym Urzędem ds. AI (EU AI Office) powołanym przy Komisji Europejskiej.

Porównanie z podejściem innych krajów UE

Kraje UE przyjęły wyraźnie zróżnicowane modele instytucjonalne. Poniższa tabela ilustruje główne różnice:

KrajKrajowa ustawa o AIOrgan nadzoru rynku (MSA)Model organizacyjny
PolskaW trakcie prac w Sejmie (proj. przyjęty przez rząd 31.03.2026)KRiBSI (planowana)Nowy organ kolegialny, z udziałem UOKiK, KNF, KRRiT, UKE
HiszpaniaBrak (AESIA powołana dekretem królewskim już w 2023 r.)AESIA (Agencia Española de Supervisión de IA)Wyspecjalizowana agencja, piaskownica regulacyjna czynna od 2024 r.
FinlandiaUstawa uchwalona (projekt w parlamencie od 2024 r.)Kilka istniejących organów sektorowych (Traficom jako punkt kontaktowy)Model rozproszony, organ ds. ochrony danych pełni kluczową rolę
AustriaBrak odrębnej ustawy; nadzór przez RTR i inne organyWiele organów sektorowych, koordynacja przez Federalny Urząd KanclerskiBiuro Obsługi AI przy RTR jako centrum informacyjne
NiemcyProjekt w opracowaniu (spodziewany akt implementacyjny)Bundesnetzagentur (BNetzA) jako główny MSAIstniejący regulator rynku + organy sektorowe
FrancjaBrak (nie planuje odrębnej ustawy)Nie wyznaczono (ponad 5 miesięcy po terminie)Model zdecentralizowany, CNIL i ANSM wśród planowanych MSA

Widoczna jest wyraźna różnica między krajami, które zdecydowały się na powołanie nowej, wyspecjalizowanej agencji (jak Hiszpania z AESIA), a tymi, które – jak Polska, Finlandia czy Niemcy – preferują model oparty na istniejących instytucjach regulacyjnych. Podejście z nowym, wyspecjalizowanym organem daje potencjalnie większą spójność nadzoru, jednak wymaga czasu i zasobów na zbudowanie od zera aparatu eksperckiego.

Terminowe wyzwania i ryzyka

Polska nie jest wyjątkiem w kontekście opóźnień – Francja nie wyznaczyła swoich organów nadzoru nawet ponad pięć miesięcy po terminie 2 sierpnia 2025 roku, a Niemcy wciąż finalizowały ustawę implementacyjną na początku 2025 roku. Niemniej AI Act jako rozporządzenie obowiązuje bezpośrednio i podmioty stosujące systemy AI są już teraz prawnie związane zakazami z art. 5 (np. dotyczącymi systemów oceny społecznej czy manipulacji podprogowej), niezależnie od postępu prac nad ustawami krajowymi.

Brak formalnie powołanego organu nadzoru oznacza w praktyce lukę egzekucyjną – przepisy obowiązują, ale nie ma jeszcze krajowej instytucji uprawnionej do ich egzekwowania w pełnym zakresie. Jeśli Sejm uchwali ustawę w terminie umożliwiającym wejście w życie przed 2 sierpnia 2026 roku, Polska zdąży z wyznaczeniem organu nadzoru przed wejściem w życie głównej paczki przepisów dotyczących systemów wysokiego ryzyka. Harmonogram jest jednak napięty.

Praktyczne znaczenie dla firm i instytucji

Dla przedsiębiorców rozwijających lub wdrażających systemy AI w Polsce najważniejsze są trzy kwestie wynikające z procedowanej ustawy:

  • Obowiązki dostawców i podmiotów stosujących systemy AI wysokiego ryzyka zaczną być aktywnie egzekwowane z chwilą powołania KRiBSI i wyposażenia jej w pełne kompetencje sankcyjne.
  • Piaskownica regulacyjna umożliwi testowanie nowych produktów AI w kontrolowanych warunkach przed ich rynkowym debiutem – co może być szczególnie istotne dla startupów i MŚP.
  • Mechanizm skarg umożliwi osobom fizycznym dochodzenie swoich praw w postępowaniu administracyjnym, jeśli uznają, że decyzja podjęta z pomocą systemu AI narusza ich interesy.

Warto śledzić postępy prac sejmowych – ustawa jest skierowana do Sejmu, ale termin jej uchwalenia nie jest jeszcze przesądzony. Ministerstwo Cyfryzacji publikuje aktualizacje na stronie gov.pl/web/cyfryzacja/wdrozenie-aktu-o-ai.

Źródła

🧠 Utrwal wiedzę z tego artykułu!

Kliknij pojęcie, by przypomnieć sobie definicję.

Komisja Nadzoru Finansowego (KNF)
?
Komisja Nadzoru Finansowego (KNF) to polski organ administracji publicznej sprawujący nadzór nad sektorem bankowym, rynkiem kapitałowym, ubezpieczeniowym oraz emerytalnym. Jej...
Czytaj pełną definicję
Social Scoring Systems (systemy oceny społecznej)
?
Systemy oceny społecznej (Social Scoring Systems) to narzędzia oparte na algorytmach sztucznej inteligencji, które analizują dane o zachowaniach i cechach...
Czytaj pełną definicję
Commission Nationale de l’Informatique et des Libertés (CNIL)
?
Commission Nationale de l'Informatique et des Libertés (CNIL) to niezależny francuski organ regulacyjny, którego zadaniem jest zapewnienie przestrzegania przepisów o...
Czytaj pełną definicję
Agence Nationale de Sécurité du Médicament et des Produits de Santé (ANSM)
?
Agence Nationale de Sécurité du Médicament et des Produits de Santé (ANSM) to francuska instytucja publiczna odpowiedzialna za bezpieczeństwo produktów...
Czytaj pełną definicję
Unijne Biuro ds. Sztucznej Inteligencji (EU AI Office)
?
Unijne Biuro ds. Sztucznej Inteligencji (EU AI Office) to wyspecjalizowany organ ustanowiony w strukturach Komisji Europejskiej, pełniący rolę centrum wiedzy...
Czytaj pełną definicję
Urząd Komunikacji Elektronicznej (UKE)
?
Urząd Komunikacji Elektronicznej (UKE) to polski organ regulacyjny odpowiedzialny za nadzór nad rynkiem usług telekomunikacyjnych, pocztowych oraz gospodarką zasobami częstotliwości...
Czytaj pełną definicję
Reklama

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry