Jak prawo odpowiada na zagrożenia deepfake?

Technologia deepfake, będąca jednym z najbardziej kontrowersyjnych osiągnięć sztucznej inteligencji, od momentu swojego powstania w 2014 roku wzbudza skrajne emocje. Z jednej strony oferuje niespotykane dotąd możliwości w branży filmowej, komputerowej czy rozrywkowej, z drugiej zaś stać się niebezpiecznym narzędziem manipulacji i oszustw, które poważnie nadwyrężają zaufanie do informacji w erze cyfrowej.

Czym jest deepfake?

Według AI Act, w artykule 3 pkt 60, deepfake jest definiowany jako:

“wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”

Innymi słowy, deepfake to treści stworzone za pomocą narzędzi sztucznej inteligencji, które tak skutecznie naśladują rzeczywistość, że odbiorca może zostać wprowadzony w błąd co do ich autentyczności. Co istotne, definicja ta nie ogranicza się jedynie do manipulacji twarzy czy ciała osób, ale obejmuje również wszelkie obrazy, wideo czy dźwięki generowane lub modyfikowane przez AI.

Wyzwania związane z deepfake

W dobie mediów społecznościowych, gdzie informacje rozprzestrzeniają się z prędkością światłowodów, deepfake staje się poważnym problemem. Oszuści wykorzystują chociażby wizerunki znanych osób czy osób bliskich, aby uwiarygodnić swoje działania, dezinformować czy osiągać korzyści materialne, wykorzystując słabości osób lub grup społecznych. Uzasadnione są obawy dotyczące wykorzystania tej technologii w celach propagandowych czy destabilizacyjnych, jak kontrowersji wokół sprawy Cambridge Analytica czy ingerencji w procesy demokratyczne, jak w przypadku referendum dotyczącego Brexitu, co miało daleko idące konsekwencje społeczne i polityczne.

Przykładem łatwym do wyobrażenia może być sytuacja, w której fałszywe przemówienie polityka, wygenerowane za pomocą deepfake, zostaje rozpowszechnione w sieci, wywołując zamieszanie i dezinformację, np. wypowiedzenie wojny czy zrzeczenie się urządu. W nagłych przypadkach trudno jest sprawnie zweryfikować autentyczność materiału.

Obowiązki dostawców i użytkowników

Co istotne, w świetle AI Act, deepfake nie jest zakazanym systemem AI – jest klasyfikowany jako system wysokiego ryzyka. Oznacza to, że podlega on szczegółowym regulacjom określonym w Rozdziale III AI Act. Ze względu na trudności w weryfikacji autentyczności takich treści, wprowadzono przepisy mające na celu ułatwienie ich identyfikacji.

Należy jednak mieć na uwadze, iż przeznaczenie deepfake w określonych celach, może stanowić tzw. zakazaną praktykę. Będzie to miało miejsce w przypadku, gdy system wykorzystujący deepfake stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd czy wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną.

Obowiązek przejrzystości

Zarówno dostawcy, jak i podmioty stosujące technologię deepfake, są zobowiązani do przestrzegania zasady przejrzystości i szeregu norm. Zgodnie z artykułem 50 ust. 2 i 4 AI Act, każda treść będąca deepfake musi być odpowiednio oznaczona informacją, że została wygenerowana lub zmanipulowana przez AI. Ta informacja powinna być przekazywana w sposób jasny i czytelny, najpóźniej w momencie pierwszej interakcji z daną treścią.

Odbiorcy powinni mieć świadomość, że prezentowane im materiały nie są autentyczne. Dotyczy to również treści tekstowych tworzonych w celu informowania społeczeństwa o sprawach leżących w interesie publicznym, nawet jeśli z definicji nie są one klasyfikowane jako deepfake.

Wyjątki od obowiązku przejrzystości

Rozporządzenie przewiduje pewne wyjątki od tego obowiązku:

  1. Jeśli wykorzystanie technologii jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych lub ścigania ich sprawców, podmiot stosujący jest zwolniony z obowiązku oznaczania treści.
  2. przypadku, gdy deepfake stanowi część pracy o charakterze artystycznym, twórczym, satyrycznym czy fikcyjnym, obowiązek informacyjny może być ograniczony. Zgodnie z motywem 134 AI Act, oznakowanie musi jedynie ujawniać, że materiał został wygenerowany lub zmanipulowany, ale nie powinno to negatywnie wpływać na odbiór dzieła.

Odpowiedzialność za tworzone treści

AI Act skupia się głównie na regulacji procesu rozwoju i wprowadzania do obrotu systemów sztucznej inteligencji. Nie obejmuje jednak przepisów bezpośrednio dotyczących wykorzystania deepfake w celach przestępczych czy naruszania praw osób trzecich. W takich sytuacjach zastosowanie mają obowiązujące przepisy cywilne i karne.

Ochrona wizerunku

Osoby, których wizerunek został wykorzystany w treściach deepfake bez ich zgody, mogą dochodzić swoich praw na podstawie:

  • Art. 81 ustawy o prawie autorskim i prawach pokrewnych, zgodnie z którym wizerunek jest chroniony prawem autorskim, a jego rozpowszechnianie wymaga zgody osoby przedstawionej.
  • Regulacji ochrony danych osobowych, na gruncie których wizerunek jest daną osobową, więc podlega ochronie jak tego rodzaju dane.
  • Kodeks cywilny, zgodnie z którym wizerunek jest uznawany za dobro osobiste (art. 23 KC) i podlega ochronie prawnej.

Jeśli treści deepfake są wykorzystywane w celu ośmieszenia czy oczernienia osoby, możliwe jest dochodzenie swoich praw na gruncie prawa karnego, o ile treści te wyczerpują znamiona zniesławienia (art. 212 KK) lub znieważenia (art. 216 KK).

Deepfake o charakterze pornograficznym

Szczególnie niepokojące są przypadki tworzenia deepfake o charakterze pornograficznym, zwłaszcza bez zgody osób, których wizerunek został wykorzystany, a także z udziałem osób małoletnich. Obecnie brakuje przepisów, które w pełni chroniłyby przed tego typu naruszeniami.

Generowanie i przechowywanie materiałów z pornografią dziecięcą jest przestępstwem i jest karalne zgodnie z obowiązującymi przepisami (art. 202 KK). Jednak w przypadku materiałów z udziałem dorosłych, tworzenie deepfake o charakterze pornograficznym bez zgody zainteresowanych osób pozostaje w szarej strefie prawnej.

Przykładem działań mających na celu przeciwdziałanie temu problemowi są regulacje wprowadzone w Korei Południowej. Po serii skandali związanych z udostępnianiem deepfake o charakterze pornograficznym, wprowadzono surowsze przepisy penalizujące tego typu działalność. Tworzenie materiałów deepfake z zamiarem ich rozpowszechniania jest tam zagrożone karą do 5 lat więzienia. Ponadto, ustawodawcy pracują nad przepisami zakazującymi posiadania i oglądania takich treści.

Oszustwa z wykorzystaniem deepfake

Coraz częściej dochodzi do oszustw polegających na podszywaniu się pod znane osoby za pomocą technologii deepfake w celu uzyskania korzyści majątkowych. Szczególnie narażeni są politycy i dziennikarze, których wizerunki są wykorzystywane w kampaniach skierowanych do starszych odbiorców.

Państwowy Instytut Badawczy NASK stworzył listę 121 osób, których wizerunki zostały użyte w tego typu oszustwach. Takie działania mogą być zakwalifikowane jako przestępstwo oszustwa (art. 286 KK) oraz naruszenie dóbr osobistych.

Podsumowanie

Technologia deepfake stanowi poważne wyzwanie dla współczesnego społeczeństwa. Kluczowe jest, aby użytkownicy potrafili odróżnić treści rzeczywiste od generowanych za pomocą sztucznej inteligencji. Obowiązek oznaczania treści deepfake, przewidziany w AI Act, może pomóc w zwiększeniu przejrzystości i zaufania w mediach.

Jednak ochrona przed oszustwami wymaga nie tylko regulacji prawnych, ale również zwiększonej czujności ze strony użytkowników oraz ciągłego edukowania o zagrożeniach związanych z deepfake. W przypadku naruszenia praw do wizerunku, aktualnie obowiązujące przepisy cywilne i karne oferują pewne możliwości dochodzenia roszczeń, choć istnieje potrzeba wprowadzenia bardziej szczegółowych regulacji, zwłaszcza w zakresie treści o charakterze pornograficznym.

W erze cyfrowej, gdzie granice między rzeczywistością a fikcją coraz bardziej się zacierają, kluczowe jest budowanie świadomości społecznej i rozwijanie narzędzi pozwalających na skuteczną weryfikację autentyczności informacji. Tylko w ten sposób możemy przeciwdziałać negatywnym skutkom technologii deepfake i wykorzystać jej potencjał w sposób odpowiedzialny.

Zródła:

https://cyberprofilaktyka.pl/blog/deepfake-jak-sztuczna-inteligencja-moze-nas-oszukiwac_i40.html

https://www.nask.pl/pl/aktualnosci/5429,NASK-ostrzega-przestepcy-tworza-coraz-bardziej-pomyslowe-oszustwa-deepfake-Bezpr.html

Agata Ziobroń, Uniwersytet Rzeszowski, https://doi.org/10.19195/1733-5779.37.15, „Deepfake a prawo karne. Uwagi de lege lata i de lege ferenda dotyczące fałszywej pornografii”

https://panoptykon.org/ai-act-w-dzialaniu-deepfaki#dodatkowe-obowiazki-dla-podmiotow-stosujacych-systemy-ai

https://web.swps.pl/strefa-prawa/artykuly/17916-10-zasad-rozpowszechniania-wizerunku-w-internecie

https://www.cbsnews.com/news/south-korea-deepfake-porn-law-ban-sexually-explicit-video-images/

https://www.prawo.pl/prawo/odpowiedzialnosc-karna-za-deepfake-w-celu-wyludzenia-pieniedzy,524247.html

„Krytyka Prawa”, tom 15, nr 4/2023, s. 56–68, ISSN 2080-1084, e-ISSN 2450-7938, © 2023 Author. This is an open access article distributed under the Creative Commons BY 4.0 license: http://creativecommons.org/licenses/by/4.0 Marcin niedbała1 dylemat odpowiedzialności karnej  z tytułu generowania pornografii  przy wykorzystaniu sztucznej inteligencji.

Autor: Natalia Bylinka
Autor: Adam Franiak