O AI Act2024-08-29T12:16:30+02:00

Co to jest AI Act?

AI Act to rozporządzenie unijne, które weszło w życie 1 sierpnia 2024 roku. AI Act stosuje się bezpośrednio we wszystkich państwach członkowskich UE, podobnie jak ustawy krajowe. Jego przepisy będą wdrażane etapami, a pełne stosowanie większości przepisów rozpocznie się 2 sierpnia 2026 roku.

Rozporządzenie wprowadza zasady dotyczące korzystania z AI w Unii Europejskiej, aby AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Systemy AI są klasyfikowane według poziomów ryzyka, w zależności od których określane są obowiązki dla dostawców i użytkowników. Przepisy przewidują bezwzględne zakazy stosowania niektórych AI, takich jak techniki podprogowe, systemy dyskryminacyjne, systemy punktacji społecznej (social scoring) oraz śledzenie stylu życia obywateli.

AI Act określa, które systemy AI zaliczane są do kategorii wysokiego ryzyka, obejmującej technologie wykorzystywane w takich sektorach jak opieka zdrowotna, transport i administracja publiczna. Dla tych systemów ustanawia się wymogi dotyczące przejrzystości, dokładności oraz bezpieczeństwa. Podmioty odpowiedzialne muszą regularnie oceniać ryzyko, gwarantować niezawodność swoich technologii i zapewniać użytkownikom dostęp do informacji o ich funkcjonowaniu.

Co to jest AI Act?

AI Act to rozporządzenie unijne, które weszło w życie 1 sierpnia 2024 roku. AI Act stosuje się bezpośrednio we wszystkich państwach członkowskich UE, podobnie jak ustawy krajowe. Jego przepisy będą wdrażane etapami, a pełne stosowanie większości przepisów rozpocznie się 2 sierpnia 2026 roku.

Rozporządzenie wprowadza zasady dotyczące korzystania z AI w Unii Europejskiej, aby AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Systemy AI są klasyfikowane według poziomów ryzyka, w zależności od których określane są obowiązki dla dostawców i użytkowników. Przepisy przewidują bezwzględne zakazy stosowania niektórych AI, takich jak techniki podprogowe, systemy dyskryminacyjne, systemy punktacji społecznej (social scoring) oraz śledzenie stylu życia obywateli.

AI Act określa, które systemy AI zaliczane są do kategorii wysokiego ryzyka, obejmującej technologie wykorzystywane w takich sektorach jak opieka zdrowotna, transport i administracja publiczna. Dla tych systemów ustanawia się wymogi dotyczące przejrzystości, dokładności oraz bezpieczeństwa. Podmioty odpowiedzialne muszą regularnie oceniać ryzyko, gwarantować niezawodność swoich technologii i zapewniać użytkownikom dostęp do informacji o ich funkcjonowaniu.

Kogo dotyczy AI Act?

AI Act wprowadza szereg restrykcji i wymagań dla podmiotów, które w swojej działalności komercyjnej wykorzystują na terenie UE systemy i modele sztucznej inteligencji. Będzie dotyczył także Ciebie lub Twojej organizacji, jeśli:

  • wprowadzasz do obrotu lub użytku systemy AI lub modele ogólnego przeznaczenia w UE
  • stosujesz systemy AI poza użytkiem własnym
  • wprowadzasz systemy AI do obrotu lub użytku poza UE, ale wyniki wytwarzane przez nie będą wykorzystywane w UE
  • importujesz lub dystrybuujesz systemu AI
  • pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzasz do obrotu lub użytku system AI
  • jesteś upoważnionym przedstawicielem dostawców niemających siedziby w UE

Kogo dotyczy AI Act?

AI Act wprowadza szereg restrykcji i wymagań dla podmiotów, które w swojej działalności komercyjnej wykorzystują na terenie UE systemy i modele sztucznej inteligencji. Będzie dotyczył także Ciebie lub Twojej organizacji, jeśli:

  • wprowadzasz do obrotu lub użytku systemy AI lub modele ogólnego przeznaczenia w UE
  • stosujesz systemy AI poza użytkiem własnym
  • wprowadzasz systemy AI do obrotu lub użytku poza UE, ale wyniki wytwarzane przez nie będą wykorzystywane w UE
  • importujesz lub dystrybuujesz systemu AI
  • pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzasz do obrotu lub użytku system AI
  • jesteś upoważnionym przedstawicielem dostawców niemających siedziby w UE

Kategorie podmiotów,
których dotyczy AI Act

  • Producenci produktów z systemem AI, czyli te podmioty, które pod własną nazwą lub znakiem towarowym wprowadzają do obrotu lub oddają do użytku system AI wraz ze swoim produktem.

  • Podmioty stosujące systemy AI, czyli te podmioty, które stosują systemy AI i mają siedzibę lub przebywają w UE.

  • Dostawcy systemów AI, czyli te podmioty, które wprowadzają do obrotu lub oddają do użytku systemy AI lub modele AI ogólnego przeznaczenia (GPAI) w UE, niezależnie od tego, czy mają siedzibę w Unii czy w państwie trzecim.

  • Dostawcy i użytkownicy systemów AI z państw trzecich (spoza UE), których wyniki wytworzone przez system AI są wykorzystywane w Unii.

  • Upoważnieni przedstawiciele dostawców spoza UE.

  • Importerzy i dystrybutorzy systemów AI.

  • Osoby pod wpływem AI, czyli osoby, na które AI ma wpływ i które znajdują się w UE.

Kategorie podmiotów,
których dotyczy AI Act

  • Producenci produktów z systemem AI, czyli te podmioty, które pod własną nazwą lub znakiem towarowym wprowadzają do obrotu lub oddają do użytku system AI wraz ze swoim produktem.

  • Podmioty stosujące systemy AI, czyli te podmioty, które stosują systemy AI i mają siedzibę lub przebywają w UE.

  • Dostawcy systemów AI, czyli te podmioty, które wprowadzają do obrotu lub oddają do użytku systemy AI lub modele AI ogólnego przeznaczenia (GPAI) w UE, niezależnie od tego, czy mają siedzibę w Unii czy w państwie trzecim.

  • Dostawcy i użytkownicy systemów AI z państw trzecich (spoza UE), których wyniki wytworzone przez system AI są wykorzystywane w Unii.

  • Upoważnieni przedstawiciele dostawców spoza UE.

  • Importerzy i dystrybutorzy systemów AI.

  • Osoby pod wpływem AI, czyli osoby, na które AI ma wpływ i które znajdują się w UE.

Od Kiedy obowiązuje AI Act?

Zostało do rozpoczęcia stosowania AI Act
0
0
0
0
Days
0
0
Hrs
0
0
Min
0
0
Sec

Od kiedy obowiązuje AI Act?

Zostało do rozpoczęcia stosowania AI Act
0
0
0
0
Days
0
0
Hrs
0
0
Min
0
0
Sec

Jakie są zakazane praktyki w zakresie AI?

AI Act zakazuje stosowania systemów AI, które wykorzystują techniki podprogowe oraz manipulacyjne. Dotyczy to takich systemów, które działają poza świadomością użytkowników lub celowo wprowadzają ich w błąd, prowadzące do podjęcia decyzji, której inaczej by nie podjęli. Skutkiem takiej praktyki jest poważna szkoda lub możliwość wyrządzenia takiej szkody. Przykładem może być aplikacja mobilna, wykorzystująca AI do wyświetlania spersonalizowanych reklam opartych na podświadomych reakcjach użytkowników, co prowadzi do niechcianych zakupów.

Zakazane są systemy AI, które eksploatują słabości określonych grup osób, ze względu na wiek lub niepełnosprawność lub inne szczególne sytuacje, prowadząc do znaczących zmian w ich zachowaniu czy ograniczenia zdolności do świadomego podejmowania decyzji. Skutkiem takiej praktyki jest poważna szkoda lub możliwość wyrządzenia takiej szkody. Za praktykę wykorzystującą słabość określonej grupy może być uznana gra komputerowa, która wykorzystuje system AI do zwiększania wydatków wśród nieletnich użytkowników.

Jest to system oceny lub klasyfikacji osób fizycznych lub grup osób, oparty na analizie ich zachowań społecznych, cech osobistych lub przewidywanych cech osobowości. Systemy AI przeznaczone do tego celu są zakazane, jeśli ich działanie prowadzi do krzywdzącego lub niekorzystnego traktowania osób w kontekstach społecznych niezwiązanych z pierwotnym kontekstem, w którym dane zostały zebrane lub wygenerowane, albo gdy taka ocena jest nieuzasadniona lub nieproporcjonalna do znaczenia tych zachowań. Na przykład firma ubezpieczeniowa używa systemu AI do analizy postów klientów w mediach społecznościowych i podnosi składki ubezpieczenia dla tych, którzy często publikują treści związane z ekstremalnymi sportami.

Zakazuje się stosowania AI do oceny ryzyka popełnienia przestępstwa na podstawie samych profili i bez jakichkolwiek dowodów. Nie dotyczy to jednak używania systemów AI do wsparcia oceny ryzyka, gdy jest ona oparta na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą. Co do zasady, systemem AI, który stanowi przykład zakazanej praktyki, może być system używany przez banki do automatycznego odrzucania wniosków kredytowych na podstawie profilowania ryzyka kryminalnego.

Zakazaną praktyką jest  tworzenie i rozbudowywanie baz danych służących do rozpoznawania twarzy poprzez nieukierunkowane pozyskiwanie ich z internetu lub nagrań z telewizji przemysłowe (CCTV). Przykładem może być firma technologiczna zbierająca zdjęcia z mediów społecznościowych, bez zgody, aby trenować systemy rozpoznawania twarzy.

Objęte zakazem są systemy AI służące do wnioskowania o emocjach osoby w miejscu pracy lub nauczania, takich jak na przykład systemy monitorujące emocje pracowników w celu oceny ich wydajności, z wyjątkiem zastosowań do celów medycznych lub na potrzeby bezpieczeństwa.

AI Act zakazuje stosowania systemów AI do kategoryzacji osób fizycznych na podstawie danych biometrycznych, służących do wnioskowania takich informacji jak rasa, poglądy polityczne, przynależności do związków zawodowych, przekonania religijne lub światopoglądowe, seksualność oraz orientacja seksualna. Przykładem takiej zakazanej praktyki może być system AI, który analizuje obrazy twarzy, aby przewidywać pochodzenie etniczne (rasowe). Jednak taka praktyka będzie dozwolona w przypadku, gdy służy na potrzeby etykietowania i filtrowania pozyskanych zgodnie z prawem zbiorów danych oraz kategoryzacji w kontekście ścigania przestępstw.

Zasadniczo używanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw jest zakazane. Zatem zakazaną praktyką jest użycie kamer CCTV z funkcją rozpoznawania twarzy do monitorowania przestrzeni publicznych. Niemniej AI Act przewiduje pewne wyjątki w sytuacjach bezwzględnie koniecznych, takich jak poszukiwanie ofiar przestępstw, zapobieganie zagrożeniom terrorystycznym czy identyfikacja osób podejrzanych o popełnienie przestępstwa. Dodatkowo, AI Act przewiduje procedurę na wykorzystanie tego rodzajów systemów w określonych sytuacjach, w tym między innymi zezwolenia organu wymiaru sprawiedliwości, np. sądu.

Co istotne, nieprzestrzeganie zakazu praktyk w zakresie AI podlega najwyższemu pułapowi kar na gruncie AI Act, tj. karze pieniężnej w wysokości do 35 000 000 EUR lub w wysokości do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

Jakie są zakazane praktyki w zakresie AI?

AI Act zakazuje stosowania systemów AI, które wykorzystują techniki podprogowe oraz manipulacyjne. Dotyczy to takich systemów, które działają poza świadomością użytkowników lub celowo wprowadzają ich w błąd, prowadzące do podjęcia decyzji, której inaczej by nie podjęli. Skutkiem takiej praktyki jest poważna szkoda lub możliwość wyrządzenia takiej szkody. Przykładem może być aplikacja mobilna, wykorzystująca AI do wyświetlania spersonalizowanych reklam opartych na podświadomych reakcjach użytkowników, co prowadzi do niechcianych zakupów.

Zakazane są systemy AI, które eksploatują słabości określonych grup osób, ze względu na wiek lub niepełnosprawność lub inne szczególne sytuacje, prowadząc do znaczących zmian w ich zachowaniu czy ograniczenia zdolności do świadomego podejmowania decyzji. Skutkiem takiej praktyki jest poważna szkoda lub możliwość wyrządzenia takiej szkody. Za praktykę wykorzystującą słabość określonej grupy może być uznana gra komputerowa, która wykorzystuje system AI do zwiększania wydatków wśród nieletnich użytkowników.

Jest to system oceny lub klasyfikacji osób fizycznych lub grup osób, oparty na analizie ich zachowań społecznych, cech osobistych lub przewidywanych cech osobowości. Systemy AI przeznaczone do tego celu są zakazane, jeśli ich działanie prowadzi do krzywdzącego lub niekorzystnego traktowania osób w kontekstach społecznych niezwiązanych z pierwotnym kontekstem, w którym dane zostały zebrane lub wygenerowane, albo gdy taka ocena jest nieuzasadniona lub nieproporcjonalna do znaczenia tych zachowań. Na przykład firma ubezpieczeniowa używa systemu AI do analizy postów klientów w mediach społecznościowych i podnosi składki ubezpieczenia dla tych, którzy często publikują treści związane z ekstremalnymi sportami.

Zakazuje się stosowania AI do oceny ryzyka popełnienia przestępstwa na podstawie samych profili i bez jakichkolwiek dowodów. Nie dotyczy to jednak używania systemów AI do wsparcia oceny ryzyka, gdy jest ona oparta na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą. Co do zasady, systemem AI, który stanowi przykład zakazanej praktyki, może być system używany przez banki do automatycznego odrzucania wniosków kredytowych na podstawie profilowania ryzyka kryminalnego.

Zakazaną praktyką jest  tworzenie i rozbudowywanie baz danych służących do rozpoznawania twarzy poprzez nieukierunkowane pozyskiwanie ich z internetu lub nagrań z telewizji przemysłowe (CCTV). Przykładem może być firma technologiczna zbierająca zdjęcia z mediów społecznościowych, bez zgody, aby trenować systemy rozpoznawania twarzy.

Objęte zakazem są systemy AI służące do wnioskowania o emocjach osoby w miejscu pracy lub nauczania, takich jak na przykład systemy monitorujące emocje pracowników w celu oceny ich wydajności, z wyjątkiem zastosowań do celów medycznych lub na potrzeby bezpieczeństwa.

AI Act zakazuje stosowania systemów AI do kategoryzacji osób fizycznych na podstawie danych biometrycznych, służących do wnioskowania takich informacji jak rasa, poglądy polityczne, przynależności do związków zawodowych, przekonania religijne lub światopoglądowe, seksualność oraz orientacja seksualna. Przykładem takiej zakazanej praktyki może być system AI, który analizuje obrazy twarzy, aby przewidywać pochodzenie etniczne (rasowe). Jednak taka praktyka będzie dozwolona w przypadku, gdy służy na potrzeby etykietowania i filtrowania pozyskanych zgodnie z prawem zbiorów danych oraz kategoryzacji w kontekście ścigania przestępstw.

Zasadniczo używanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw jest zakazane. Zatem zakazaną praktyką jest użycie kamer CCTV z funkcją rozpoznawania twarzy do monitorowania przestrzeni publicznych. Niemniej AI Act przewiduje pewne wyjątki w sytuacjach bezwzględnie koniecznych, takich jak poszukiwanie ofiar przestępstw, zapobieganie zagrożeniom terrorystycznym czy identyfikacja osób podejrzanych o popełnienie przestępstwa. Dodatkowo, AI Act przewiduje procedurę na wykorzystanie tego rodzajów systemów w określonych sytuacjach, w tym między innymi zezwolenia organu wymiaru sprawiedliwości, np. sądu.

Co istotne, nieprzestrzeganie zakazu praktyk w zakresie AI podlega najwyższemu pułapowi kar na gruncie AI Act, tj. karze pieniężnej w wysokości do 35 000 000 EUR lub w wysokości do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

WIęcej o AI Act

Jakie kary finansowe wynikają z AI Act?2024-07-29T18:25:56+02:00

Również kary za nieprzestrzeganie zapisów AI Act odpowiadają podziałowi ze względu na ryzyka systemów AI.

Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie zakazanych systemów AI podlega administracyjnej karze pieniężnej w wysokości do 35 milionów EUR lub do  7% całkowitego rocznego światowego obrotu. Dotyczy to więc m.in. systemów przeznaczonych do social scoringu, untargeted scraping etc.

Kary nakładane w związku z nieprzestrzeganiem przepisów dotyczących systemów sztucznej inteligencji objętych innym poziomem ryzyka wynoszą odpowiednio do 15 milionów EUR lub 3% całkowitego rocznego światowego obrotu.

Za podanie nieprawidłowych informacji organom przewidywane są kary w wysokości do 7.5 milionaEUR lub 1% całkowitego rocznego światowego obrotu.

Ocena skutków systemów AI wysokiego ryzyka dla praw podstawowych (FRIA)2024-07-29T18:25:37+02:00

Przed wdrożeniem systemu AI wysokiego ryzyka zasadniczo wymagane jest przeprowadzenie oceny skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu (Fundamental Rights Impact Assessment, FRIA).

Obowiązek ten ma zastosowanie przed wykorzystaniem systemu wysokiego ryzyka po raz pierwszy, a o wynikach przeprowadzonej oceny należy powiadomić stosowne organy. Informacje zawarte w ocenie należy aktualizować na bieżąco. Ponadto, dostawcy i użytkownicy systemów AI są zobowiązani do monitorowania i dokumentowania wpływu tych systemów na prawa podstawowe oraz do wdrażania odpowiednich środków zaradczych w przypadku wykrycia jakichkolwiek zagrożeń.

Wymagania wobec systemów o konkretnych funkcjonalnościach2024-07-29T18:25:20+02:00

Do dostawców i podmiotów stosujących niektóre systemy AI o konkretnych funkcjonalnościach, które stosuje się dodatkowe obowiązki w zakresie przejrzystości. Informacje te mają być przekazywane w sposób jasny i wyraźny, najpóźniej w momencie pierwszej interakcji lub stosowania.

Dotyczy to systemów, które:

  • wchodzą w bezpośrednią interakcję z człowiekiem – wymagane jest informowanie, że osoba ma do czynienia nie z człowiekiem, a z AI;
  • generują dźwięki, obrazy, wideo lub tekst – wymagane jest oznakowanie takiej treści w sposób czytelny dla maszyn i wykrywalne jako sztucznie wygenerowane lub zmanipulowane;
  • rozpoznają emocje, stosują kategoryzację biometryczną – wymagane jest informowanie o działaniu systemu osób, wobec których systemy są stosowane, a ewentualne przetwarzanie danych ma być zgodne z RODO;
  • generują i przetwarzają deepfake wymagane jest oznakowanie takiej treści.
Czym jest model AI ogólnego przeznaczenia (GPAI)? Jakie wymagania związane są z modelami AI ogólnego przeznaczenia?2024-07-29T18:24:57+02:00

Modele AI ogólnego przeznaczenia (General Purpose AI, GPAI) mają ogólny charakter,  stosowane są w do wykonywania szerokiego zakresu zadań, a zazwyczaj trenowane są na dużej ilości danych. Modele te mogą być dalej zmieniane lub dostosowywane jako baza do tworzenia nowych modeli i systemów.

W przeciwieństwie do modeli zaprojektowanych do konkretnych zadań, GPAI mają naśladować zdolności poznawcze ludzi. Są to w szczególności duże generatywne modele wykorzystywane np. w tłumaczach internetowych, wirtualnych asystentach i autonomicznych pojazdach, generujące teksty, obrazy i inne treści.

AI Act wprowadza szczególne przepisy dla takich modeli, poświęcając uwagę tym, które stwarzają ryzyko systemowe, czyli mogą nieść negatywne skutki dla zdrowia publicznego, porządku publicznego, bezpieczeństwa publicznego, praw podstawowych lub całego społeczeństwa, mogące rozprzestrzenić się na dużą skalę.

Na dostawców takich modeli nakłada się dodatkowe obowiązki m.in. w zakresie dokumentacji modelu, udostępniania jej innych podmiotom (w tym innym dostawcom AI), wprowadzeniem polityk zgodności z prawem UE, oraz – jeśli siedziba dostawcy znajduje się poza UE – wyznaczaniem przedstawicieli na Unię Europejską.

Kiedy muszę zarejestrować system AI?2024-07-29T18:17:10+02:00

Niektóre systemy AI wymagają zarejestrowania w krajowej lub prowadzonej przez UE bazie danych.

Zasadniczo obowiązek rejestracyjny dotyczy systemów AI wysokiego ryzyka. Powinna zostać dokonana przez upoważnionego przedstawiciela przed wprowadzeniem do obrotu lub oddaniem do użytku takiego systemu sztucznej inteligencji.

W bazie krajowej rejestruje się systemy dotyczące infrastruktury krytycznej, czyli m.in. przeznaczone do zarządzania krytyczną infrastrukturą cyfrową, ruchem drogowym i procesów ich działania lub zaopatrzenia w wodę, gaz, ciepło lub energię elektryczną.

W bazie UE znaleźć mają się m.in. systemy dotyczące biometrii, kształcenia i szkolenia zawodowego, czy szeroko rozumianego HR. Przepisy zastrzegają, że tylko część rejestru będzie niepubliczna – w szczególności w obszarach ścigania przestępstw, migracji, azylu i zarządzania kontrolą graniczną.

Informacje, które znajdą się w odpowiedniej bazie dotyczyć będą specyfikacji samego systemu, a także osób odpowiedzialnych za rejestrację.

Do jakich systemów sztucznej inteligencji stosuje się AI act?2024-07-29T18:16:51+02:00

AI Act reguluje praktyki związane ze sztuczną inteligencją przede wszystkim w działalności komercyjnej.

Dotyczy m.in. dostawców AI, podmiotów stosujących ją, jej dystrybutorów i osób, na które AI ma wpływ i które znajdują się w Unii. Zasadniczo odnosi się do systemów i modeli sztucznej inteligencji, które wykorzystywane są w Unii, niezależnie od tego, czy poszczególni aktorzy z nimi związani znajdują się lub mają tu siedzibę.

AI Act nie obejmuje niektórych przypadków stosowania sztucznej inteligencji w UE. Rozporządzenia nie stosuje się w szczególności do systemów AI w zakresie realizacji:

  • użytku własnego,
  • badań naukowych i rozwojowych,
  • celów wojskowych, obronnych lub bezpieczeństwa narodowego,
  • międzynarodowej współpracy w sprawie ścigania przestępstw i współpracy sądowej.

WIęcej o AI Act

Jakie kary finansowe wynikają z AI Act?2024-07-29T18:25:56+02:00

Również kary za nieprzestrzeganie zapisów AI Act odpowiadają podziałowi ze względu na ryzyka systemów AI.

Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie zakazanych systemów AI podlega administracyjnej karze pieniężnej w wysokości do 35 milionów EUR lub do  7% całkowitego rocznego światowego obrotu. Dotyczy to więc m.in. systemów przeznaczonych do social scoringu, untargeted scraping etc.

Kary nakładane w związku z nieprzestrzeganiem przepisów dotyczących systemów sztucznej inteligencji objętych innym poziomem ryzyka wynoszą odpowiednio do 15 milionów EUR lub 3% całkowitego rocznego światowego obrotu.

Za podanie nieprawidłowych informacji organom przewidywane są kary w wysokości do 7.5 milionaEUR lub 1% całkowitego rocznego światowego obrotu.

Ocena skutków systemów AI wysokiego ryzyka dla praw podstawowych (FRIA)2024-07-29T18:25:37+02:00

Przed wdrożeniem systemu AI wysokiego ryzyka zasadniczo wymagane jest przeprowadzenie oceny skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu (Fundamental Rights Impact Assessment, FRIA).

Obowiązek ten ma zastosowanie przed wykorzystaniem systemu wysokiego ryzyka po raz pierwszy, a o wynikach przeprowadzonej oceny należy powiadomić stosowne organy. Informacje zawarte w ocenie należy aktualizować na bieżąco. Ponadto, dostawcy i użytkownicy systemów AI są zobowiązani do monitorowania i dokumentowania wpływu tych systemów na prawa podstawowe oraz do wdrażania odpowiednich środków zaradczych w przypadku wykrycia jakichkolwiek zagrożeń.

Wymagania wobec systemów o konkretnych funkcjonalnościach2024-07-29T18:25:20+02:00

Do dostawców i podmiotów stosujących niektóre systemy AI o konkretnych funkcjonalnościach, które stosuje się dodatkowe obowiązki w zakresie przejrzystości. Informacje te mają być przekazywane w sposób jasny i wyraźny, najpóźniej w momencie pierwszej interakcji lub stosowania.

Dotyczy to systemów, które:

  • wchodzą w bezpośrednią interakcję z człowiekiem – wymagane jest informowanie, że osoba ma do czynienia nie z człowiekiem, a z AI;
  • generują dźwięki, obrazy, wideo lub tekst – wymagane jest oznakowanie takiej treści w sposób czytelny dla maszyn i wykrywalne jako sztucznie wygenerowane lub zmanipulowane;
  • rozpoznają emocje, stosują kategoryzację biometryczną – wymagane jest informowanie o działaniu systemu osób, wobec których systemy są stosowane, a ewentualne przetwarzanie danych ma być zgodne z RODO;
  • generują i przetwarzają deepfake wymagane jest oznakowanie takiej treści.
Czym jest model AI ogólnego przeznaczenia (GPAI)? Jakie wymagania związane są z modelami AI ogólnego przeznaczenia?2024-07-29T18:24:57+02:00

Modele AI ogólnego przeznaczenia (General Purpose AI, GPAI) mają ogólny charakter,  stosowane są w do wykonywania szerokiego zakresu zadań, a zazwyczaj trenowane są na dużej ilości danych. Modele te mogą być dalej zmieniane lub dostosowywane jako baza do tworzenia nowych modeli i systemów.

W przeciwieństwie do modeli zaprojektowanych do konkretnych zadań, GPAI mają naśladować zdolności poznawcze ludzi. Są to w szczególności duże generatywne modele wykorzystywane np. w tłumaczach internetowych, wirtualnych asystentach i autonomicznych pojazdach, generujące teksty, obrazy i inne treści.

AI Act wprowadza szczególne przepisy dla takich modeli, poświęcając uwagę tym, które stwarzają ryzyko systemowe, czyli mogą nieść negatywne skutki dla zdrowia publicznego, porządku publicznego, bezpieczeństwa publicznego, praw podstawowych lub całego społeczeństwa, mogące rozprzestrzenić się na dużą skalę.

Na dostawców takich modeli nakłada się dodatkowe obowiązki m.in. w zakresie dokumentacji modelu, udostępniania jej innych podmiotom (w tym innym dostawcom AI), wprowadzeniem polityk zgodności z prawem UE, oraz – jeśli siedziba dostawcy znajduje się poza UE – wyznaczaniem przedstawicieli na Unię Europejską.

Kiedy muszę zarejestrować system AI?2024-07-29T18:17:10+02:00

Niektóre systemy AI wymagają zarejestrowania w krajowej lub prowadzonej przez UE bazie danych.

Zasadniczo obowiązek rejestracyjny dotyczy systemów AI wysokiego ryzyka. Powinna zostać dokonana przez upoważnionego przedstawiciela przed wprowadzeniem do obrotu lub oddaniem do użytku takiego systemu sztucznej inteligencji.

W bazie krajowej rejestruje się systemy dotyczące infrastruktury krytycznej, czyli m.in. przeznaczone do zarządzania krytyczną infrastrukturą cyfrową, ruchem drogowym i procesów ich działania lub zaopatrzenia w wodę, gaz, ciepło lub energię elektryczną.

W bazie UE znaleźć mają się m.in. systemy dotyczące biometrii, kształcenia i szkolenia zawodowego, czy szeroko rozumianego HR. Przepisy zastrzegają, że tylko część rejestru będzie niepubliczna – w szczególności w obszarach ścigania przestępstw, migracji, azylu i zarządzania kontrolą graniczną.

Informacje, które znajdą się w odpowiedniej bazie dotyczyć będą specyfikacji samego systemu, a także osób odpowiedzialnych za rejestrację.

Do jakich systemów sztucznej inteligencji stosuje się AI act?2024-07-29T18:16:51+02:00

AI Act reguluje praktyki związane ze sztuczną inteligencją przede wszystkim w działalności komercyjnej.

Dotyczy m.in. dostawców AI, podmiotów stosujących ją, jej dystrybutorów i osób, na które AI ma wpływ i które znajdują się w Unii. Zasadniczo odnosi się do systemów i modeli sztucznej inteligencji, które wykorzystywane są w Unii, niezależnie od tego, czy poszczególni aktorzy z nimi związani znajdują się lub mają tu siedzibę.

AI Act nie obejmuje niektórych przypadków stosowania sztucznej inteligencji w UE. Rozporządzenia nie stosuje się w szczególności do systemów AI w zakresie realizacji:

  • użytku własnego,
  • badań naukowych i rozwojowych,
  • celów wojskowych, obronnych lub bezpieczeństwa narodowego,
  • międzynarodowej współpracy w sprawie ścigania przestępstw i współpracy sądowej.

Twórz wyjątkowe rozwiązania

Zaufaj nam w kwestiach prawnych

+48 22 25 34567

ul. Śniadeckich 10
00-656 Warszawa

Twórz wyjątkowe rozwiązania.

Zaufaj nam w kwestiach prawnych

+48 22 25 34567

ul. Śniadeckich 10
00-656 Warszawa

Przejdź do góry