Zakazane praktyki AI – ważne zmiany od lutego 2025 r.

Od lutego niektóre praktyki AI zostaną zakazane

Akt w sprawie sztucznej inteligencji wszedł w życie 1 sierpnia 2024 roku; jego przepisy będą wdrażane etapami, a stosowanie pierwszych z nich rozpocznie się już 2 lutego 2025 r. Wtedy wprowadzone zostaną zakazy niektórych praktyk w zakresie AI. Na ten obszar należy zwrócić szczególną uwagę, bo za naruszenia przewidziano możliwość nałożenia znaczących kar pieniężnych. Przepisy regulujące kary zaczną obowiązywać później, bo od 2 sierpnia 2026 r.

Unijny prawodawca, w związku z tym, że z systemami AI mogą wiązać się nie tylko same korzyści, ale też pewne niebezpieczeństwa, wprowadził w AI Act katalog praktyk, które są bezwzględnie zakazane. Za ich naruszenie przewidziano możliwość nałożenia kary w wysokości nawet do 3 5 000 000 EUR.

Ustalenie zakazów ma na celu uniknięcie wykorzystywania narzędzi AI w sposób niewłaściwy, np. do manipulacji, wyzyskiwania, czy kontroli społecznej, ze względu na możliwy negatywny wpływ na społeczeństw. Jednocześnie takie działania są sprzeczne z wartościami Unii Europejskiej, takimi jak prawo do niedyskryminacji, prawa dziecka czy ochrona danych.

Zakazane praktyki

W art. 5 Rozporządzenia zawarto katalog zakazanych praktyk w zakresie AI. Każdorazowo zakaz dotyczy wprowadzania do obrotu, oddawania do użytku lub wykorzystywania niżej opisanych systemów AI.Do katalogu zaliczono m.in systemy AI, wykorzystujące słabości osób fizycznych ze względu na cechy obejmujące ich wiek, niepełnosprawność czy szczególną sytuację społeczną lub ekonomiczną, których celem lub skutkiem jest dokonanie znaczącej zmiany zachowania tych osób, w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tych, lub innych osób poważną szkodę.

Może to być taki system AI, który z uwagi na to, że obejmuje dane o słabościach konkretnej osoby dostarcza jej regularnie treści, które nakierowują ją na określone działanie.

Zakazano ponadto systemów AI, jeśli ich działanie jest oparte o tworzenie lub rozbudowywanie baz danych, które mają służyć rozpoznawaniu twarzy na podstawie nieukierunkowanego pozyskiwania (untargeted scraping) wizerunków, a które są dostępne w Internecie lub w ramach nagrań z monitoringu.

W praktyce, mogą to być systemy, które automatycznie pobierają i zapisują dostępne w Internecie zdjęcia różnych osób (np. na portalach społecznościowych), w efekcie czego powstają bazy danych zawierające informacje o różnych osobach. Takie systemy mogą także budzić wątpliwości pod kątem zgodności z przepisami regulującymi ochronę danych osobowych.

Przepisy AI Act zakazują także systemów AI służących ocenie lub klasyfikacji osób fizycznych, prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, o ile taki scoring społeczny prowadzi do krzywdzącego lub niekorzystnego traktowania niektórych osób w kontekstach społecznych, a które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano takie dane; a także dot. krzywdzącego lub niekorzystnego traktowania niektórych osób, jeśli jest ono nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.

Oprócz opisanych powyżej, najczęściej występujących w praktyce systemów, które obejmie zakaz, AI Act nie ogranicza się do nich. Zakazane są także systemy, które:

  • wykorzystują techniki podprogowe lub manipulacyjne, wprowadzające użytkownika w błąd, aby zmusić go do podejmowania decyzji, której normalnie by nie podjął;
  • wykorzystują technologie identyfikacji biometrycznej, działające zdalnie i w czasie rzeczywistym, takie jak analiza obrazów z kamer CCTV;
  • służą przeprowadzaniu ocen ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania;
  • służą rozpoznawaniu emocji w miejscu pracy, instytucjach edukacyjnych;
  • kategoryzują na podstawie danych biometrycznych w celu wnioskowania o rasie, poglądach politycznych, przekonaniach religijnych lub orientacji seksualnej;
  • wykorzystują zdalną identyfikację biometryczną w czasie rzeczywistym do ścigania przestępstw w przestrzenie publicznej z wyjątkiem niektórych przypadków – m.in. zgody sądowej).

Jak przygotować się do wejścia w życie art. 5 AI Act?

Podmioty wprowadzające do obrotu, oddające do użytku lub wykorzystujące systemy AI kwalifikowane jako zakazane będą musiały zaprzestać tych praktyk przed 2 lutym 2025 r. Inna możliwością jest modyfikacja sposobu działania danych systemów tak, by nie naruszały prawa. Duża część tych systemów zmieni wtedy kwalifikację na niższą w systemie wprowadzanym przez AI Act – na systemy wysokiego ryzyka. W takim wypadku konieczne będzie opracowanie w przeciągu trzech lat od wejścia w życie Rozporządzenia odpowiednich procedur, m.in. systemu zarządzania ryzykiem, czy rejestru zdarzeń.

Autor: Hieronim Dąbrowski, Jagoda Marcinkowska
Autor: Adam Franiak