AI Act w działaniu: co się stanie z deepfake'ami?

Poradnik
25.04.2024
12 min. czytania
Tekst
Image
Rzeźby w okularach do wirtalnej rzeczywistości

Sprawa studentki, której twarz została wykorzystana do stworzenia pornograficznego deepfake’a, stała się na tyle głośna, że powstał o niej film Another Body. Czy AI Act sprawi, że nikt więcej nie zostanie skrzywdzony deepfakiem?

Zanim w pełni zacznie obowiązywać przyjęte w marcu nowe prawo – akt o sztucznej inteligencji (AI Act) – minie jeszcze wiele miesięcy. Ale już teraz przyglądamy się temu, co może zmienić, jeśli chodzi o wpływ narzędzi wykorzystujących uczenie maszynowe na naszą codzienność.

Nie tylko porno, czyli problem z deepfake’ami

Według AI Act deepfake oznacza „wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”.

Image
Papież Franciszek w puchowej kurtce wygenerowany przez MIdjourney

Papież Franciszek w puchowej kurtce wygenerowany przez MIdjourney [źródło]

Deepfaki mogą być pornograficzne (deepfake porn, ich ofiarą są zarówno znane artystki, np. izraelska aktorka Gal Gadot czy hiszpańska piosenkarka Rosalia, jak i dzieci), reklamowe (wizerunek Scarlett Johansson został bez jej zgody wykorzystany do reklamy edytora obrazów) czy polityczne (ofiarami padli m.in. Barack Obama, Giorgia Meloni czy Andrzej Duda).

Mogą one służyć dyskredytacji danej osoby i jej działalności (zwłaszcza w przypadku polityków, ale ofiarą deepfake porn padła też brytyjska aktywistka stojąca za kampanią #NotYourPorn), promowaniu produktu czy usługi przy wykorzystaniu rozpoznawalnej osoby, a także zarabianiu pieniędzy. Czasami jest to forma kategoria „żartu” – czy raczej przemocy rówieśniczej: grupa chłopców w z pewnej hiszpańskiej miejscowości wygenerowała i rozsyłała po sieci zdjęcia topless zawierające wizerunki dziewczynek w wieku od 11 do 17 lat z tego samego miasta.

Czy AI Act utrudni tworzenie deepfake porn

Dokładniej pytanie brzmi, czy AI Act utrudni wykorzystywanie wizerunków osób do generowania materiałów pornograficznych wbrew ich woli.

W tym zakresie AI Act może mieć jedynie pośredni skutek. Art. 5 ust. 1(a) tworzy zakaz wprowadzania na rynek systemów AI, które zostały zaprojektowane do manipulacji i wprowadzania w błąd, w dodatku w sposób, który wyrządza (lub może wyrządzić) poważną szkodę – co należy rozumieć zarówno jako szkodę majątkową, jak i szkodę na osobie, czyli krzywdę (naruszenie praw człowieka, doprowadzenie do utraty zdrowia, naruszenie dóbr osobistych).

Image
Plakat filmu "Another Body"

Plakat filmu „Another Body” opowiadającej o ofierze deepfake'a.

Chodzi tu m.in. o systemy wykorzystujące techniki podprogowe (bodźce w postaci obrazów lub dźwięków), których nie można dostrzec, bo wykraczają poza świadomą ludzką percepcję, ale także wykorzystujące podatności osób z mniejszości etnicznych, religijnych lub będących w trudnej sytuacji ekonomicznej.

W odniesieniu do deepfake’ów ten zakaz albo w ogóle nie zadziała, albo będzie miał zastosowanie w bardzo wąskim zakresie. Raczej nie wytnie z rynku narzędzi bazujących na generatywnej AI tylko dlatego, że ktoś – zamiast stworzyć satyrycznego mema z papieżem – użył takiego narzędzia do stworzenia naprawdę krzywdzącego deepfake porn. Trudno znaleźć w AI Act konkretny przepis, który pomógłby osobie pokrzywdzonej w wyniku rozpowszechnienia jej wygenerowanego, zmanipulowanego wizerunku albo głosu.

CZEGO DOTYCZY AI ACT?

Warto pamiętać, że AI Act jest regulacją techniczną. Przede wszystkim układa stosunki między podmiotami dostarczającymi systemy a tymi, które wykorzystują je w usługach. W kwestii odpowiedzialności za działania podjęte z wykorzystaniem systemów sztucznej inteligencji pomocne będą inne, obowiązujące już na poziomie unijnym i krajowym przepisy – np. zarówno wytwarzanie, jak i posiadanie i rozpowszechnianie pornografii z udziałem dzieci (nie ma znaczenia, czy są to obrazy zmanipulowane za pomocą uczących się narzędzi, czy też nie) jest karalne (art. 202 kodeksu karnego).

Jeśli chodzi o ściganie osób, które tworzą i rozpowszechniają deepfaki z wizerunkami osób, które nie wyraziły na to zgody, skuteczniejsze mogą być, przynajmniej w Europie, przepisy o ochronie danych osobowych i przepisy prawa cywilnego. A w Polsce także ustawa o prawie autorskim i prawach pokrewnych, która zawiera przepis o ochronie wizerunku (zakazie jego rozpowszechniania bez zgody osoby na nim przedstawionej). Problemem jest jednak to, że osoba pokrzywdzona musi wtedy dochodzić swoich praw w sądzie – na drodze postępowania cywilnego (ochrona dóbr osobistych, ochrona danych) lub poprzez złożenie skargi do organu ochrony danych (w tym postępowaniu nie uzyska jednak ani odszkodowania, ani zadośćuczynienia). Obie te ścieżki wymagają czasu, środków, cierpliwości i w dodatku grubej skóry.

Zgodnie z AI Act dostawca modelu sztucznej inteligencji ogólnego przeznaczenia (General Purpose AI – takim modelem jest np. GPT i inne duże modele językowe, które mogą służyć do generowania obrazów) powinien wdrożyć „politykę, która zapewni zgodność systemu z prawem autorskim Unii Europejskiej”. Dla osoby fizycznej, która chciałaby chronić swoje dane, oznacza to przede wszystkim, że jeśli jej treści (np. zdjęcia, wideo) są chronione prawem autorskim, dostawcy AI muszą uzyskać zgodę na ich użycie („chyba że treści te są używane do celów badań naukowych lub spełnione są inne wyjątki prawne”).

DYREKTYWA TDM

Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym, tzw. dyrektywa TDM, pozwala na kopiowanie i pobieranie chronionych treści pod pewnymi warunkami, w celu m.in. trenowania sztucznej inteligencji.

Czy ograniczy to wykorzystywanie zdjęć lub materiałów wideo do tworzenia deepfake’ów? W znikomym zakresie. Osoby fizyczne nadal będą narażone na nadużycia lub nieautoryzowane wykorzystanie swojego wizerunku, bo wiele zdjęć i filmików, które sami umieszczamy w mediach społecznościowych, nie jest chronionych przez prawo autorskie. A nawet jeśli tak, to raczej nie wprowadzamy w ich metadanych zastrzeżenia o wyłączeniu ich z eksploracji (zgodnie z dyrektywą TDM).

Podsumowując, sam AI Act nie tworzy nowych uprawnień ani ścieżek dochodzenia praw dla osób, których wizerunek/głos został wykorzystany przy generowaniu obrazu/dźwięku. Wprowadza tylko zasadę (wymagającą doprecyzowania w prawie krajowym), że każda osoba fizyczna lub prawna ma prawo złożyć skargę do właściwego organu nadzoru rynku (jeśli sądzi, że doszło do naruszenia przepisów AI Act).

OCENA WPŁYWU NA PRAWA PODSTAWOWE

Można się zastanawiać, czy i na ile w ochronie praw podstawowych, jak choćby prawa do prywatności, pomoże tzw. FRIA, czyli ocena wpływu na prawa podstawowe (ang. Fundamental Right Impact Assessment). Taką ocenę będą musiały przeprowadzać firmy (organizacje, instytucje) wdrażające systemy AI wysokiego ryzyka. Celem tego ćwiczenia jest nie tylko nazwanie ryzyk, ale przede wszystkim aktywne przeciwdziałanie szkodom, jakie systemy AI mogą wyrządzić ludziom.

Czy AI Act wymaga oznaczania deepfake’ów

AI Act wymaga natomiast ostrzegania ludzi, że mają do czynienia z materiałem sztucznie wygenerowanym lub zmanipulowanym. W tym zakresie zadziała art. 50 ust. 2 aktu o sztucznej inteligencji wprowadzający watermarking, czyli znakowanie treści. Dostawcy systemów AI – w tym AI ogólnego przeznaczenia, służących do generowania materiałów graficznych, dźwiękowych, filmowych i tekstowych – będą mieli obowiązek tak projektować swój system, żeby automatycznie oznaczał generowane materiały.

Takie oznaczenie będzie czytelne dla algorytmów rekomendacyjnych platform internetowych. Dzięki temu te ostatnie będą mogły ostrzegać swoich użytkowników i użytkowniczki, że mają do czynienia z materiałem wytworzonym przez komputer (i potencjalnie zmanipulowanym).

W 2023 r. Koalicja Obywatelska użyła w swojej kampanii politycznej wygenerowanego przez AI głosu Mateusza Morawieckiego. O oznaczeniu deepfake musiały jej przypomnieć organizacje pozarządowe. [Źródło: Twitter]

Co więcej, jeśli platformy społecznościowe uznają takie materiały za mniej wiarygodne lub potencjalnie szkodliwe, będą miały techniczną możliwość ograniczenia ich zasięgów (nałożenia tzw. shadowbana). Czy to zrobią? Bardzo możliwe, ponieważ – na podstawie aktu o usługach cyfrowych (DSA) – dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych mają obowiązek identyfikować i ograniczać ryzyka związane m.in. z rozpowszechnianiem treści sztucznie wygenerowanych lub zmanipulowanych.

Wyjątki, czyli kiedy nie trzeba będzie oznaczać deepfake’ów

W bańce regulacyjnej słychać narzekania na liczne wyjątki, które wpisano do AI Act. Nie zabrakło ich także w tym aspekcie.

Pierwszy wyjątek dotyczy sytuacji, kiedy AI nie ingeruje „zanadto” w oryginalny materiał, np. „pomaga” przy standardowej edycji lub nie zmienia znacząco danych wejściowych. Dość umowna definicja, przyznacie.

Drugi wyjątek dotyczy, a jakże!, organów ścigania, które mogą sobie manipulować obrazem, tekstem, dźwiękiem i audio, jeśli celem wykrywanie, przeciwdziałanie, ściganie lub prowadzenie postępowania w sprawie o przestępstwo.

Wyjątki dla organów ścigania to nasza ulubiona kategoria. Zajmujemy się nimi w Panoptykonie od lat, stąd nasza nieufność. Sięganie przez służby po dane telekomunikacyjne w teorii również jest możliwe w sprawach poważnych przestępstw, ale – jak pokazały nasze śledztwa – w praktyce policjantom zdarzało się po nie sięgać w sprawach o wykroczenia. Zwłaszcza w Polsce, gdzie nie ma realnej kontroli nad działaniami służb, takie wyjątki są groźne.

Dodatkowe obowiązki dla podmiotów stosujących systemy AI

Do tej pory opisywaliśmy obowiązki dostawców, a więc firm, które systemy AI projektują i wprowadzają na rynek. Czasem te same firmy „wystawiają” narzędzia dla użytkowników końcowych (w takiej podwójnej roli występują koncerny technologiczne w rodzaju Alphabet/Google czy Microsoft/OpenAI). Często jednak za konkretne zastosowanie systemu AI (np. w ramach aplikacji do modyfikowania obrazów) będzie odpowiadać inna firma. AI Act również te podmioty zobowiązuje do ostrzegania użytkowników ich usług, że mają do czynienia z treściami deepfake’owymi.

Podmioty stosujące konkretny system AI (nie należą do nich osoby stosujące system AI w prywatnych celach, poza działalnością zawodową) muszą informować, że określone treści zostały sztucznie wytworzone lub zmodyfikowane przez AI, a także odpowiednio te treści oznaczać, aby odbiorcy nie potraktowali ich jako autentycznych.

(art. 50 ust. 4)

Jeśli jednak treści wygenerowane przez AI mają charakter artystyczny, twórczy, satyryczny, fikcyjny lub podobny, wymagane jest tylko ujawnienie, że zostały one wygenerowane lub zmanipulowane przez AI (przy czym taka adnotacja nie powinna utrudniać oglądania, korzystania ani doceniania dzieła).

Z kolei jeśli tekst jest publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, musi być wyraźnie oznaczone, że został sztucznie wygenerowany lub zmanipulowany – chyba że treść została zweryfikowana przez człowieka i osoba fizyczna lub prawna ponosi za nią odpowiedzialność.

Czy zakazy będą skuteczne w zwalczaniu szkodliwych deepfake’ów

To się okaże, ale trudno nam sobie wyobrazić działanie tych zakazów w praktyce.

AI Act stanowi duży kompromis pomiędzy dążeniem do wspierania innowacji a ochroną społeczeństwa przed potencjalnie manipulacyjnymi, wprowadzającymi w błąd lub szkodliwymi treściami. Zakazy z art. 5 tylko w minimalnym stopniu mogą się przełożyć na ograniczenie produkcji deepfake’ów. Większe znaczenie mogą mieć wymagane przez AI Act oznaczenia i ostrzeżenia, ale ich skuteczność w również będzie zależeć od rzetelności dostawców i użytkowników biznesowych AI („podmioty stosujące AI”) oraz od świadomości i „czujności” konsumentów korzystających z narzędzi generatywnej AI.

dr Gabriela Bar, radczyni prawna (Gabriela Bar Law & AI)

Ciekawostka: czeski departament sprawiedliwości przygotował projekt przepisów, który przewiduje, że produkcja, dystrybucja, a przede wszystkim publikacja materiałów pornograficznych wytworzonych przy wykorzystaniu metody deepfake bez zgody osoby na nich przedstawionej będzie karalna. Być może krajowe przepisy wzmocnią działanie rozwodnionego i pełnego wyjątków AI Act?

Dziękujemy dr Gabrieli Bar (Gabriela Bar Law & AI) za konsultację merytoryczną tekstu.

Co to jest sztuczna inteligencja? W czym warto ją wykorzystywać, a jakie ma ograniczenia? Przeczytaj przewodnik Fundacji Panoptykon: Sztuczna inteligencja non-fiction.

Gabriela Bar, Katarzyna Szymielewicz
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.