Rozwój technologii podwójnego zastosowania a akt ws. sztucznej inteligencji

Zbliża się oficjalna publikacja AI Act, przełomowego aktu prawnego, który ma na celu regulację sektora sztucznej inteligencji. Akt ten, mimo że pierwotnie skupia się na zastosowaniach cywilnych, posiada kluczowe elementy, które mogą wpłynąć także na systemy wojskowe o podwójnym zastosowaniu (dual-use technology). Dla producentów oznacza to konieczność zrozumienia i dostosowania się do nowych wymogów, takich jak transparentność algorytmów, etyka użytkowania oraz odpowiedzialność za decyzje podejmowane przez systemy AI. Choć AI Act może stworzyć pewne możliwości dla rozwijania działalności na nowych rynkach, na przykład poprzez ułatwienie współpracy międzynarodowej i dostosowanie produktów do globalnych standardów, to równocześnie stawia przed firmami szereg wyzwań związanych z potrzebą zrozumienia i implementacji tych złożonych regulacji.

Technologie podwójnego zastosowania nie są nowym zjawiskiem, jednak ich rola i wpływ na współczesne społeczeństwa są często niezauważane. Od zaawansowanych systemów monitorowania wizyjnego, które pierwotnie były projektowane dla celów wojskowych, po systemy AI optymalizujące logistykę, które znajdują zastosowanie zarówno na teatrze działań wojennych, jak i w cywilnym przemyśle – te technologie są już głęboko zakorzenione w różnych aspektach naszego życia.

Producenci rozwijający technologie wojskowe coraz częściej stają przed dylematem związanym z cywilnym zastosowaniem ich produktów. W kontekście AI Act, który narzuca zasady związane z wykorzystaniem systemów AI w sektorze cywilnym, sytuacja ta staje się jeszcze bardziej złożona. Konieczność dostosowania produktów do obu tych sfer może prowadzić do poważnych zmian w strategiach rozwoju technologii.

W tym kontekście, kluczowe staje się zrozumienie, jak technologie pierwotnie rozwijane dla sektora obronnego, przez swoje dualne zastosowanie, wpadają pod rygorystyczne ramy prawne AI Act. Regulacje te nie tylko definiują ramy odpowiedzialności i bezpieczeństwa, ale również rzucają światło na potrzebę przemyślanej strategii nad długoterminowym rozwojem technologii.

Otoczenie regulacyjne wymaga od firm technologicznych rozwijających technologie podwójnego zastosowania zarówno elastyczności, jak i przewidywalności, co z kolei wpływa na globalną dynamikę innowacji i konkurencji technologicznej.

To co na pierwszy rzut oka zdaje się być największym wyzwaniem, to przede wszystkim, że AI Act wymaga zapewnienia wysokiego poziomu przejrzystości i odpowiedzialności w stosowaniu systemów AI. Trudność ta może być szczególnie zauważalna przy systemach AI o wysokim stopniu autonomii. Dodatkowo, regulacje te nakładają na przedsiębiorstwa obowiązek przeprowadzenia rygorystycznych testów i ocen ryzyka, co wydłuża czas wprowadzania produktów do obrotu. To może być jeszcze bardziej problematyczne dla start-upów i mniejszych podmiotów, które nie dysponują odpowiednimi zasobami do spełnienia tych wymogów. Wreszcie, równoczesne przestrzeganie lokalnych przepisów bezpieczeństwa i obrony narodowej oraz regulacji dotyczących systemów AI może prowadzić do kolizji regulacji, utrudniając efektywną adaptację technologii podwójnego zastosowania.

Chociaż AI Act wyraźnie wyłącza z zakresu swojego stosowania systemy AI przeznaczone wyłącznie do zastosowań wojskowych, technologie podwójnego zastosowania, które znajdują użycie również w sferze cywilnej, nadal podlegają jego rygorystycznym wymogom.

Dlatego przedsiębiorstwa nie mogą automatycznie zakładać, że ich produkty są wolne od regulacji AI Act tylko z powodu ich głównego zastosowania wojskowego. W sytuacjach, gdzie technologie te są wykorzystywane także w celach cywilnych, firmy muszą spełnić wszystkie wymogi dotyczące bezpieczeństwa, przejrzystości i zgodności w stosowaniu systemów AI.

Rozumienie pojęcia „przeznaczenia” jest kluczowe; na przykład, technologia rozpoznawania obrazu przeznaczona do nadzoru granic państwa, która równocześnie monitoruje ruch miejski na potrzeby cywilne, musi zaspokoić standardy AI Act.

Podobnie rzecz będzie się miała przy technologii radarowej i antydronowej, wykrywającej obiekty latające, która to technologia może być przeznaczona zarówno do celów obronnych i stricte militarnych, jak i cywilnych, choćby przy zabezpieczaniu imprez masowych.

Dla producentów i dostawców oznacza to konieczność przeprowadzenia dokładnej analizy potencjalnych zastosowań ich systemów oraz dostosowanie ich do regulacji, gdy technologie te przekraczają granice militarnego przeznaczenia.

AI Act wprowadza szereg szczegółowych wymogów dla producentów, dostawców, dystrybutorów oraz importerów systemów AI, mających na celu zapewnienie bezpieczeństwa, przejrzystości i zgodności w stosowaniu systemów AI.

Oto niektóre z kluczowych obowiązków, które muszą spełniać producenci, dostawcy, dystrybutorzy oraz importerzy systemów AI:

  1. Ocena ryzyka związanego z systemem AI (Fundamental Rights Impact Assessment). Obowiązek ten można sprowadzić do identyfikacji potencjalnych zagrożeń dla praw i wolności człowieka, bezpieczeństwa oraz prywatności.
  2. Transparentność i informowanie. Systemy AI muszą być wyposażone w klarowne i zrozumiałe instrukcje obsługi oraz informacje dla użytkowników o działaniu systemu, ograniczeniach oraz sposobach interwencji.
  3. Plan działań naprawczych. W przypadku wykrycia nieprawidłowości lub incydentów związanych z działaniem systemu AI, producenci oraz inni odpowiedzialni podmioty muszą niezwłocznie reagować na te nieprawidłowości, m.in. informując organy regulacyjne i stosując plan działań naprawczych.
  4. Dobór i wdrożenie środków bezpieczeństwa. Obowiązek polega na zastosowaniu odpowiednich środków technicznych i organizacyjnych, adekwatnych do ryzyka, które zapewnią bezpieczeństwo i prywatność danych przetwarzanych przez systemy AI, w tym zabezpieczenia przed nieautoryzowanym dostępem, utratą danych oraz innymi ryzykami.
  5. Rejestracja i dokumentacja systemów AI wysokiego ryzyka. AI Act wymaga rejestracji systemów AI wysokiego ryzyka w unijnym rejestrze, np. systemy AI korzystające z danych biometrycznych. Producenci muszą utrzymywać szczegółową dokumentację dotyczącą algorytmów, danych treningowych oraz procesów decyzyjnych.

Rozwój technologii podwójnego zastosowania, szczególnie tych opierających się na systemach AI, przedstawia istotne wyzwanie dla firm działających na europejskim rynku oraz przemysłu obronnego, rysując nowy krajobraz ryzyka regulacyjnego, ale też możliwości. Te innowacje, które równie dobrze mogą służyć celom cywilnym, jak i wojskowym, mogą znacząco przyspieszyć rozwój technologiczny, otwierając nowe ścieżki dla eksportu i zwiększając międzynarodową konkurencję europejskich przedsiębiorstw. Jednakże, dynamiczny postęp wiąże się z dodatkowymi obciążeniami regulacyjnymi, takimi jak te wprowadzone przez AI Act, które mogą skomplikować proces wprowadzania nowych produktów do obrotu rynkowego.

Szczególnie dla małych i średnich przedsiębiorstw, wymogi dotyczące przejrzystości, etyki i bezpieczeństwa mogą okazać się wyjątkowo uciążliwe.

Przemysł obronny, który tradycyjnie korzysta z najnowszych osiągnięć w dziedzinie AI, będzie musiał w wielu przypadkach wpleść zasady odpowiedzialności cywilnej w projektowanie systemów wojskowych. Ta integracja wymaga nie tylko dostosowania istniejących systemów do nowych regulacji, ale również funkcjonalnego oddzielenia przeznaczenia systemów na cele militarne, jak i cywilne.

Rozwój technologii podwójnego zastosowania rodzi wiele pytań, w tym pytania o odpowiedzialność za decyzje podejmowane przez autonomiczne systemy, ich wpływ na prywatność i prawa człowieka. W odpowiedzi na te wyzwania, firmy podlegające AI Act muszą angażować się w dialog z regulatorami i użytkownikami końcowymi, aby budować zaufanie i akceptację dla swoich technologii. Skuteczność w tej dziedzinie będzie wymagała zdolności do adaptacji, innowacji oraz zarządzania skomplikowanymi kwestiami nie tylko technologicznymi, ale również prawnymi i organizacyjnymi.

Autor: Adam Franiak