Jak AI Act zmienia zasady przetwarzania danych wrażliwych?
Przetwarzanie danych szczególnych kategorii (tzw. danych wrażliwych) na gruncie rozporządzenia ws. sztucznej inteligencji (AIA) odbywa się na odmiennych zasadach niż w ramach RODO. Zmiana ta wynika z intencji unijnego ustawodawcy, aby zapobiegać potencjalnej dyskryminacji w procesie tworzenia i wykorzystywania systemów AI wysokiego ryzyka.
Relacja AI Act i RODO
Przed omówieniem różnic w zakresie przetwarzania danych szczególnych kategorii między oboma aktami prawnymi, należy podkreślić, że zgodnie z art. 2 ust. 7 AIA, przepisy AIA zasadniczo nie mają wpływu na stosowanie RODO. „Szczególne kategorie danych osobowych” w rozumieniu AIA oznaczają dane wskazane w art. 9 ust. 1 RODO (art. 2 pkt 37 AIA). Regulacje te obejmują zatem następujące rodzaje informacji:
- pochodzenie rasowe lub etniczne,
- poglądy polityczne,
- przekonania religijne lub światopoglądowe,
- przynależność do związków zawodowych,
- dane genetyczne,
- dane biometryczne, jeżeli są przetwarzane w celu jednoznacznej identyfikacji osoby fizycznej (np. odciski palców, skany twarzy),
- dotyczące zdrowia,
- dane dotyczące życia seksualnego lub orientacji seksualnej.
Co do zasady, AIA nie kreuje nowych podstaw prawnych przetwarzania danych (motyw 63 AIA). Wyjątki dotyczą jednak sytuacji określonych w Rozporządzeniu, takich jak:
- zmiana celu przetwarzania danych (art. 6 ust. 4 RODO) w kontekście piaskownic regulacyjnych (art. 59 AIA);
- przetwarzanie danych szczególnych kategorii w ramach badań nad stronniczością i działań korekcyjnych (art. 10 AIA).
W rezultacie unijny ustawodawca wyraźnie wskazał na możliwość przetwarzania danych szczególnych kategorii przez dostawców systemów AI jako administratorów danych, jednak w ściśle określonych przypadkach.
AI Act wprowadza konkretne regulacje dotyczące przetwarzania danych szczególnych kategorii w systemach sztucznej inteligencji wysokiego ryzyka, ograniczając ich wykorzystanie tylko do przypadków, gdy jest to absolutnie niezbędne, np. w celu wykrycia i skorygowania stronniczości systemów. Tym samym AI Act pokazuje, że ochrona danych wrażliwych nie może być poświęcona w imię postępu technologicznego, a prawa jednostki muszą być chronione nawet w najbardziej zaawansowanych systemach sztucznej inteligencji.
Dopuszczalność przetwarzania danych szczególnych kategorii w AIA
Artykuł 10 AIA reguluje przetwarzanie danych szczególnych kategorii w przypadku systemów AI wysokiego ryzyka. Jest to dozwolone tylko wtedy, gdy systemy te wykorzystują techniki obejmujące trenowanie modeli, a dane pochodzą z zestawów treningowych, walidacyjnych i testowych (art. 10 ust. 1 AIA). W przypadku systemów niewykorzystujących takich technik, wymogi jakości danych stosuje się jedynie do zbiorów testowych (art. 10 ust. 6 AIA).
Wymogi dotyczące jakości danych obejmują m.in.:
- praktyki w zakresie zbierania danych i ich pochodzenia, w tym pierwotny cel przetwarzania danych osobowych;
- ocenę dostępności, ilości i przydatności zbiorów danych;
- zapewnienie adekwatności, reprezentatywności oraz minimalizacji błędów i niekompletności danych.
Dostawcy systemów AI mogą przetwarzać dane szczególnych kategorii w celu monitorowania, wykrywania i korygowania stronniczości systemów wysokiego ryzyka, pod warunkiem spełnienia szczególnych wymogów ochrony praw i wolności osób fizycznych (art. 10 ust. 5 AIA). Dodatkowe warunki obejmują:
- brak możliwości skutecznego wykrywania i korygowania stronniczości przy użyciu innych danych, np. syntetycznych lub zanonimizowanych;
- stosowanie zaawansowanych środków ochrony prywatności, takich jak pseudonimizacja;
- ograniczenie dostępu do danych wyłącznie do osób upoważnionych;
- usunięcie danych po skorygowaniu stronniczości lub po upływie okresu ich przechowywania.
Ratio legis wyjątku od art. 9 ust. 1 RODO w kontekście sztucznej inteligencji
Artykuł 10 AIA ma na celu ochronę praw przed dyskryminacją wynikającą z funkcjonowania stronniczych systemów AI. Techniczne aspekty sztucznej inteligencji, polegające na nauce na podstawie określonych zbiorów danych, mogą prowadzić do niezamierzonych uprzedzeń, np. w odniesieniu do etnicznego pochodzenia czy zdrowia. Problem ten obrazuje tzw. zjawisko garbage in – garbage out, w którym systemy powielają uprzedzenia zawarte w danych wejściowych.
Aby zapobiec takiej sytuacji, dostawcy systemów AI muszą posiadać szczegółowe informacje, np. o pochodzeniu etnicznym osób, wobec których systemy podejmują decyzje, co umożliwia przeprowadzenie procesu tzw. AI debiasing.
Rada Europejska uznaje, że “wysokiej jakości dane są niezbędne do rozwoju sztucznej inteligencji”. W podobnym tonie wypowiadają się Wytyczne etyczne dla godnej zaufania sztucznej inteligencji oraz Biała Księga w sprawie sztucznej inteligencji, które podkreślają znaczenie odpowiedniego zarządzania danymi. Dlatego właśnie AIA dopuszcza ograniczone przetwarzanie danych szczególnych kategorii w celu zapewnienia bezstronności systemów AI.
[1] „Using sensitive data to prevent discrimination by artificial intelligence: Does the GDPR need a new exception?”, M. van Bekkum, F. Zuiderveen Borgesius, (dostęp: Using sensitive data to prevent discrimination by artificial intelligence: Does the GDPR need a new exception? – ScienceDirect, 20 września 2024 r.).
[2] Konkluzje Rady Europejskiej 28 czerwca 2018 r. (EUCO 9/18)’(2018)
(dostęp: <https://www.consilium.europa.eu/media/35936/28-euco-final-conclusions-en.pdf>, 20 września 2024 r.).
[3] Raport Grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z dnia 8 kwietnia 2019 r. (dostęp: Ethics guidelines for trustworthy AI | Shaping Europe’s digital future (europa.eu), 20 września 2024 r.).
[4] Biała Księga w sprawie sztucznej inteligencji, 19 luty 2020 r. (dostęp: White Paper on Artificial Intelligence: a European approach to excellence and trust – European Commission (europa.eu), 20 września 2024 r.).