Nadzór ludzki w AI. Co oznaczają nowe wymogi regulacyjne?
Wejście w życie rozporządzenia w sprawie sztucznej inteligencji (AIA) wprowadziło wiele nowych wymogów dla dostawców systemów AI. Wśród nich na uwagę zasługuje obowiązek zapewnienia nadzoru ze strony człowieka. Zgodnie z art. 14 ust. 1 AIA, systemy sztucznej inteligencji wysokiego ryzyka mają zostać zaprojektowane w taki sposób, aby osoba fizyczna mogła je nadzorować przez cały okres używania i w ten sposób realizować zasadę bezpiecznej i etycznej AI.
Czego będzie dotyczył oraz na czym będzie polegał nowy obowiązek?
Obowiązek zapewnienia nadzoru ze strony człowieka odnosi się wyłącznie do systemów wysokiego ryzyka, a więc takich, które:
- są przeznaczone do wykorzystywania jako związany z bezpieczeństwem element produktu;
- są produktem, którego związanym z bezpieczeństwem elementem jest systemem AI, lub
- zostały wymienione w załączniku nr II do AIA.
W związku z tym będzie on miał przełożenie w szczególności na systemy wykorzystywane w usługach publicznych, zarządzaniu infrastrukturą krytyczną czy też stosowane na rynku pracy w procesach rekrutacyjnych.
Jego wdrożenie ma na celu zapobieżenie lub zminimalizowanie wystąpienia ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych (art. 14 ust. 2 AIA). Dotyczy to zarówno wykorzystywania systemu zgodnie z przeznaczeniem, jak i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania.
Nadzór może być realizowany poprzez wprowadzenie co najmniej jednego z dwóch rodzajów środków, wybranych współmiernie do ryzyka, poziomu autonomii i kontekstu wykorzystywania danego systemu (art. 14 ust. 3 AIA).
Pierwszy dotyczy rozwiązań określonych i wbudowanych bezpośrednio przez dostawcę systemu przed wprowadzeniem go do obrotu. Obejmuje zatem rozwiązania zaimplementowane wprost do systemu. Natomiast drugi odnosi się do rozwiązań wyłącznie określonych przez dostawcę, wdrażanych jednak samodzielnie przez użytkownika.
W obu przypadkach środki muszą zostać zaimplementowane przed wprowadzeniem systemu do obrotu lub oddaniem do użytku, a według art. 14 ust. 4 AIA mają umożliwiać:
- pełne zrozumienie możliwości i ograniczeń systemu AI;
- należyte monitorowanie jego działania, tak aby można było wykryć i zarządzić potencjalnymi anomaliami i nieprawidłowościami systemu AI;
- bycie stale świadomym możliwości potencjalnego wystąpienia tzw. błędu automatyzacji;
- prawidłową interpretację wyników działań systemu AI;
- decyzyjność w zakresie niekorzystania z systemu lub zignorowanie, unieważnienie bądź odwrócenie otrzymanego wyniku;
- ingerowanie lub przerwanie działania systemu.
Znaczenie dla praktyki stosowania AI
Tak rygorystyczne rozwiązania regulacyjne niosą ze sobą liczne uzasadnienia faktyczne. Jak wskazuje Cathy O’Neil, amerykańska matematyczka i badaczka algorytmów, konieczność uchwalenia takiego przepisu doskonale obrazuje przykład stanu Waszyngton, w którym zaczęto wykorzystywać systemy AI do weryfikacji twarzy osób ubiegających się o wydanie dokumentów, np. prawa jazdy. Nieprawidłowości w ich działaniu pomógł wyeliminować dopiero kilkuszczeblowy nadzór ze strony człowieka[1].
Podobny problem przedstawia „eksperyment” Bloomberga, w którym poproszono sztuczną inteligencję o wskazanie typowych wizerunków nauczycieli. System wskazał znaczącą nadreprezentację kobiet w tym zawodzie, czego nie potwierdzały statystyki[2]. Choć jest to prosty przykład, to jak podkreśliła Cathy O’Neil, nabiera on dużego znaczenia w kontekście wykorzystania systemów AI do rekrutowania pracowników, gdzie podobne błędy mogą prowadzić do dyskryminacji i niesprawiedliwego traktowania kandydatów. Instytucja nadzoru sprawowanego przez człowieka ma takim zjawiskom przeciwdziałać i dzięki temu zapewniać transparentność wykorzystania systemów.
Istotność tej regulacji podkreśla także wymiar kary w przypadku braku jej wdrożenia. Zgodnie z art. 99 ust. 4 AIA, w przypadku niezrealizowania obowiązku z art. 14 ust. 1 organ nadzorczy może nałożyć administracyjną karę pieniężną w wysokości do 15 mln euro lub do 3% światowego rocznego obrotu z poprzedniego roku obrotowego w przypadku przedsiębiorstwa – w zależności od tego, która z kwot będzie wyższa.
Nadzór człowieka nad systemami sztucznej inteligencji stał się kluczowym wymogiem w kontekście systemów AI wysokiego ryzyka. Jego bezwzględny charakter wyraźnie odzwierciedla ogólną ideę rozporządzenia, stawiającą człowieka jako głównego decydenta w procesie wykorzystywania sztucznej inteligencji. Wskazana regulacja będzie miała także duży wpływ na projektowanie systemów AI, które będą musiały od samego początku posiadać zaimplementowane rozwiązania umożliwiające ich pełny nadzór i zrozumienie.
[1] J. Dymek, „Sztuczna inteligencja to pusty, nic nie znaczący slogan” – matematyczka o technologiach wdrażających AI i dyskryminacji [wywiad], https://panoptykon.org/sztuczna-inteligencja-to-pusty-wywiad-cathy-o-neil (dostęp: 26.08.2024 r.).
[2] Szerzej w kwestii tzw. gender bias zob. J. Yennie, Gender Bias in AI, The Gradient 2024, https://thegradient.pub/gender-bias-in-ai/ (dostęp: 26. 08.2024 r.).