AI Act a RODO – gdzie się nakładają, gdzie kolidują?

AI act

Informacja

Ten tekst jest częścią naszego Kompendium o AI ACT. Jeśli szukasz pełnego harmonogramu na rok 2026, checklist do wdrożenia lub słownika pojęć, zajrzyj na stronę główną przewodnika.

Dwa unijne rozporządzenia – RODO (od 2018 r.) i AI Act (formalnie obowiązujący od 2024 r.) – tworzą dziś nakładające się ramy prawne dla każdej organizacji, która wdraża systemy sztucznej inteligencji przetwarzające dane osobowe. Art. 2 ust. 7 AI Act expressis verbis potwierdza, że oba reżimy stosuje się równolegle i wzajemnie się uzupełniają. Dla IOD (DPO) oznacza to konkretne obowiązki w zakresie podwójnej zgodności, ale też możliwości optymalizacji procesów.

Reklama

Gdzie zaczynają się – i gdzie kończą – oba rozporządzenia

RODO obejmuje ochronę danych osobowych na każdym etapie ich przetwarzania – od zebrania (input), przez szkolenie modelu, aż po użycie systemu produkcyjnego. AI Act natomiast koncentruje się przede wszystkim na skutkach działania systemu AI (output) i dotyczy głównie systemów zakazanych oraz systemów wysokiego ryzyka. To różnica zasadnicza: RODO chroni dane osobowe jako takie, AI Act zarządza ryzykiem związanym z decyzjami algorytmicznymi.

Jeśli system AI przetwarza dane osobowe użytkowników w UE, organizacja podlega jednocześnie obu rozporządzeniom – bez możliwości wyboru jednego z nich. Zakresy te nakładają się szczególnie mocno w obszarach: przejrzystości, rozliczalności, prawidłowości danych oraz oceny ryzyka.

Ocena ryzyka: DPIA kontra FRIA – czy można połączyć?

dpia lokalne ai lowcy ai

RODO wymaga przeprowadzenia oceny skutków dla ochrony danych (DPIA) wszędzie tam, gdzie przetwarzanie może powodować wysokie ryzyko dla praw i wolności osób fizycznych. AI Act wprowadza natomiast własne narzędzie – ocenę wpływu na prawa podstawowe (FRIA, Fundamental Rights Impact Assessment), wymaganą dla systemów wysokiego ryzyka, np. stosowanych w rekrutacji, dostępie do usług finansowych czy edukacji.

Różnica jest istotna i dotyczy perspektywy analizy:

  • DPIA analizuje proces przetwarzania danych osobowych – cele, podstawy prawne, ryzyka prywatności, środki zaradcze.
  • FRIA analizuje działanie systemu AI jako całości, w tym możliwość dyskryminacji, wpływ algorytmu na decyzje dotyczące ludzi i skutki społeczne.
  • EDPS (Europejski Inspektor Ochrony Danych) konsekwentnie rozróżnia te dwie perspektywy: ryzyko wynikające z ochrony danych oraz ryzyko wynikające z zastosowania systemu AI.

Mimo tych różnic wiele elementów obu analiz pokrywa się. W praktyce zaleca się zintegrowane podejście: dane zebrane na etapie DPIA (opis operacji przetwarzania, identyfikacja zagrożeń, środki ograniczające ryzyko) mogą i powinny być bezpośrednio wykorzystane przy sporządzaniu FRIA. Firmy, które wcześniej wdrożyły dobre praktyki RODO – rejestry czynności, zasady privacy by design – mogą je względnie łatwo rozszerzyć na obszar AI Act, co znacząco obniża koszty i czas dostosowania.

KryteriumDPIA (RODO)FRIA (AI Act)
Podstawa prawnaArt. 35 RODOArt. 27 AI Act
Kiedy wymaganaWysokie ryzyko dla prywatnościSystemy AI wysokiego ryzyka (zał. III)
PerspektywaDane osobowe i ich przetwarzanieDziałanie algorytmu i jego skutki społeczne
Zakres oceny ryzykaNaruszenie prywatności, bezpieczeństwo danychDyskryminacja, prawa obywatelskie, decyzje zautomatyzowane
Możliwość integracjiTak – elementy pokrywające się można dokumentować wspólnie

Kluczowy konflikt: minimalizacja danych vs. obowiązek logowania

Najpoważniejsze napięcie między oboma rozporządzeniami dotyczy zasady minimalizacji danych z RODO i obowiązku rejestrowania zdarzeń z AI Act. RODO w art. 5 ust. 1 lit. c) wymaga, żeby przetwarzane dane osobowe były adekwatne, istotne i ograniczone do tego, co niezbędne dla osiągnięcia celu przetwarzania. AI Act w art. 12 nakłada natomiast na systemy wysokiego ryzyka obowiązek automatycznego rejestrowania zdarzeń przez cały cykl życia systemu – w tym danych wejściowych, wyników decyzji i momentów, w których system mógł działać nieprawidłowo.

W praktyce rejestry systemów AI (logi) mogą zawierać dane osobowe: identyfikatory użytkowników, dane biometryczne, oceny kredytowe, wyniki rekrutacyjne. Przechowywanie tych danych przez długi czas jest wymagane przez AI Act dla celów monitoringu i audytu, ale jednocześnie stoi w bezpośredniej sprzeczności z zasadą ograniczenia przechowywania z RODO (art. 5 ust. 1 lit. e). Podobnie RODO wymaga minimalizacji danych w systemach AI analizujących kredyty czy zachowania użytkowników, podczas gdy AI Act wymaga dla takich systemów szczegółowych danych historycznych niezbędnych do prawidłowego nadzoru.

Nie ma tu jednego gotowego rozwiązania, ale istnieją narzędzia ograniczające konflikt:

  • Pseudonimizacja logów – identyfikatory osobowe w rejestrach zastępuje się pseudonimami; pełna re-identyfikacja możliwa tylko w ściśle określonych przypadkach.
  • Ograniczona retencja – ustalenie najkrótszego możliwego okresu przechowywania logów, który jednocześnie spełnia wymogi monitoringu AI Act.
  • Kontrola dostępu do rejestrów – dostęp do logów zawierających dane osobowe ograniczony do funkcji audytu i monitoringu, z oddzielnym uzasadnieniem prawnym przetwarzania.
  • Anonimizacja na poziomie agregatu – gdzie możliwe, logi przechowywać w formie zagregowanej statystycznie, nie na poziomie pojedynczych decyzji.

Praktyczna tabela zgodności dla DPO

Poniższa tabela zestawia kluczowe obowiązki z obu rozporządzeń w kontekście praktycznej pracy IOD/DPO. Kolumna „Ryzyko kolizji” wskazuje obszary, gdzie spełnienie jednego wymogu może utrudniać spełnienie drugiego.

ObszarWymóg RODOWymóg AI ActRyzyko kolizjiRekomendacja dla DPO
Ocena ryzykaDPIA (art. 35)FRIA (art. 27)Niskie – zakresy częściowo pokrywalneSporządzić zintegrowany dokument DPIA+FRIA z wyraźnym rozróżnieniem sekcji
PrzejrzystośćObowiązek informacyjny (art. 13–14)Obowiązek przejrzystości wobec użytkowników systemu AI (art. 13)Niskie – zbieżne celePołączyć klauzule informacyjne RODO z opisem działania AI w jednym dokumencie
Retencja danych / logiOgraniczenie przechowywania (art. 5 ust. 1 lit. e)Obowiązek rejestrowania zdarzeń przez cały cykl życia (art. 12)Wysokie – bezpośredni konfliktPseudonimizacja logów; ustalić minimalny okres retencji spełniający oba wymogi; osobna podstawa prawna dla logów AI
Minimalizacja danychDane adekwatne i ograniczone do celu (art. 5 ust. 1 lit. c)Systemy wysokiego ryzyka wymagają szczegółowych danych historycznych i wejściowychWysokie – napięcie strukturalneOcenić niezbędność każdej kategorii danych przez lens AI Act; stosować anonimizację/agregację tam, gdzie AI nie wymaga danych osobowych
RozliczalnośćAdministrator odpowiada za zgodność z RODO (art. 5 ust. 2)Dostawca/użytkownik systemu AI odpowiada za zgodność z AI ActŚrednie – możliwa rozbieżność rólZweryfikować, kto jest administratorem RODO a kto dostawcą/użytkownikiem AI Act; uregulować w umowach przetwarzania
Prawo do sprzeciwu/usunięciaPrawo do usunięcia danych (art. 17), sprzeciw wobec profilowania (art. 21–22)Brak bezpośredniego odpowiednika, ale wymóg nadzoru ludzkiego (art. 14)Średnie – usunięcie danych może kolidować z integralnością modelu AIWdrożyć procedury usuwania danych z rejestrów i zbiorów treningowych; udokumentować wpływ na model
Dane biometryczneDane szczególnej kategorii (art. 9); domyślny zakaz przetwarzaniaDodatkowe zakazy identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej (art. 5)Niskie – AI Act rozszerza ochronę RODOStosować surowszy reżim; zbieg sankcji z art. 83 RODO i art. 99 AI Act jest możliwy
Dokumentacja i rejestryRejestr czynności przetwarzania (art. 30)Dokumentacja techniczna systemu AI (art. 11); rejestr systemów AI wysokiego ryzyka (art. 71)Niskie – możliwa integracja dokumentówUzupełnić rejestr czynności przetwarzania o sekcję AI; powiązać z dokumentacją techniczną AI Act

Jak organizacja powinna podejść do podwójnej zgodności

Praktyczne wdrożenie wymaga sekwencyjnego podejścia: w pierwszej kolejności organizacja powinna spełnić wymagania RODO na etapie gromadzenia danych, a następnie połączyć przepisy obu rozporządzeń na etapie przetwarzania danych przez algorytm i zarządzania wynikami. Kluczowym krokiem jest identyfikacja każdego systemu AI, który przetwarza dane osobowe – taki system automatycznie podlega procedurze RODO niezależnie od klasyfikacji ryzyka AI Act.

Dla DPO szczególnie istotne jest uregulowanie ról i odpowiedzialności. RODO posługuje się pojęciami administratora i podmiotu przetwarzającego, natomiast AI Act wprowadza kategorie dostawcy (provider) i użytkownika (deployer) systemu AI. Role te nie zawsze pokrywają się w jednej organizacji – dostawca systemu AI może nie być administratorem danych w rozumieniu RODO, co wymaga precyzyjnego uregulowania w umowach. Organizacje, które wdrożyły już dojrzałe procesy compliance RODO, są w zdecydowanie lepszej pozycji startowej: ich rejestry czynności, procedury DPIA i mechanizmy privacy by design stanowią gotowy fundament do rozszerzenia na wymogi AI Act.

Obie regulacje nie wykluczają się wzajemnie – działają komplementarnie. Część obowiązków ulega zdublowaniu, ale nie zwalnia to z ich realizacji w ramach obu reżimów. Nic nie stoi jednak na przeszkodzie, aby informacje pozyskane na etapie oceny ryzyka RODO wykorzystać na potrzeby dokumentacji AI Act.

Źródła

🧠 Utrwal wiedzę z tego artykułu!

Kliknij pojęcie, by przypomnieć sobie definicję.

Inspektor Ochrony Danych (Data Protection Officer) (IOD)
?
Inspektor Ochrony Danych (IOD), znany również jako Data Protection Officer (DPO), to ekspert wyznaczony przez organizację w celu nadzorowania przestrzegania...
Czytaj pełną definicję
Inspektor Ochrony Danych (Data Protection Officer) (DPO)
?
Inspektor Ochrony Danych (DPO) to wyznaczony w organizacji ekspert, którego zadaniem jest nadzorowanie przestrzegania przepisów o ochronie danych osobowych oraz...
Czytaj pełną definicję
Użytkownik systemu AI (w AI Act) (Deployer)
?
Użytkownik systemu AI (Deployer) to osoba fizyczna lub prawna, organ publiczny lub inna jednostka, która wykorzystuje system sztucznej inteligencji w...
Czytaj pełną definicję
System sztucznej inteligencji wymagający szczególnej oceny ryzyka (System AI wysokiego ryzyka)
?
System AI wysokiego ryzyka to kategoria technologii zdefiniowana w unijnym Akcie o SI, która ze względu na swoje zastosowanie może...
Czytaj pełną definicję
Obróbka danych osobowych w taki sposób, że ich identyfikacja jest niemożliwa (Anonimizacja)
?
Anonimizacja danych to proces nieodwracalnego przekształcania informacji w taki sposób, aby uniemożliwić zidentyfikowanie osoby fizycznej, której one dotyczą. W przeciwieństwie...
Czytaj pełną definicję
Zasada adekwatności i ograniczenia danych do niezbędnego minimum (Minimalizacja danych)
?
Zasada minimalizacji danych to jedna z kluczowych wytycznych RODO, zgodnie z którą dane osobowe muszą być adekwatne, stosowne oraz ograniczone...
Czytaj pełną definicję
Reklama

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry