Igrzyska w Paryżu: monitoring na dopingu

Artykuł
20.03.2023
6 min. czytania
Tekst
Image
Grafika oka z osobą w środku

Przepisy przygotowywane na czas igrzysk olimpijskich i paraolimpijskich w Paryżu w 2024 r. dopuszczają wykorzystanie systemów wyposażonego w algorytmy monitoringu wizyjnego do automatycznego wykrywania zagrożeń. Francja to pierwszy europejski kraj, który chce wprost zalegalizować tak inwazyjną technikę śledzenia w przestrzeni publicznej. Podpisaliśmy protest, w którym apelujemy o rezygnację z tego pomysłu – i wyjaśniamy dlaczego.

Monitoring wizyjny wykorzystujący algorytmy narusza prawo do prywatności, ogranicza wolność zgromadzeń i grozi dyskryminacją. Kategoryzacja biometryczna, którą umożliwia, jest do tego stopnia inwazyjna dla praw obywatelskich, że w przygotowywanych obecnie przepisach dotyczących sztucznej inteligencji (AI Act) rozważa się – także pod naciskiem europejskich organizacji społecznych, które nawołują do wpisania takiego zakazu w kampanii prowadzonej przez European Digital Rights – całkowite zakazanie systemów z taką funkcją.

Jednak art. 7 specustawy olimpijskiej go dopuszcza.

[AKTUALIZACJA 31.03.2023]

Francuskie władze przyjęły przepisy w krytykowanym kształcie (analiza Politico).

Dlaczego algorytmiczny monitoring narusza prawa obywatelskie?

Już zwykłe kamery ograniczają wolność i prawa obywatelskie, bo na każdym kroku w przestrzeni publicznej jesteśmy obserwowani, niezależnie od tego, czy robimy coś złego. Systemy monitoringu wyposażone w algorytmy, które mają wykrywać „zagrożenia” i „nietypowe zdarzenia”, to wyższa szkoła naruszeń. Jakie problemy wynikają z wykorzystania takich systemów w przestrzeni publicznej?

1. Naruszenie zasady niedyskryminacji

Wykrywanie „nietypowych zdarzeń” oznacza, że przestrzeń i przebywające w niej osoby będą bez przerwy monitorowane. Ich wizerunek, cechy fizjonomii, zachowanie, pozycja ciała, gesty – wszystko będzie poddane analizie. Na ryzyko z tym związane narażone są przede wszystkim osoby, które spędzają w tej przestrzeni najwięcej czasu, np. osoby bezdomne, ubogie, osoby z niepełnosprawnością (o ironio – w końcu mówimy o paraolimpiadzie).

Według badań czynniki takie jak pochodzenie czy kolor skóry również wpływają na wskaźnik fałszywych wskazań pozytywnych, zwiększając go od 10 do nawet 100 razy. Pokrzywdzone są także kobiety, w przypadku których wskaźnik false positives jest od 2 do 5 razy większy niż w przypadku mężczyzn.

Są też dowody na to, że użycie systemów algorytmicznych do zwalczania przestępczości kończy się nadmiarowymi interwencjami policji, strukturalną dyskryminacją i nadmierną kryminalizacją mniejszości etnicznych i religijnych. W ten sposób naruszona zostaje zasada niedyskryminacji – jedna z najważniejszych dla współczesnego systemu ochrony praw człowieka.

2. Biometryczna kategoryzacja

Wbrew temu, co twierdzą francuskie władze (art. 7 ust. III specustawy), wykorzystanie systemów służących rozpoznawaniu zagrożeń oznacza też przetwarzanie danych biometrycznych w rozumieniu RODO. Dlatego – bez względu na to, co ostatecznie znajdzie się w AI Act – już teraz istnieją poważne wątpliwości co do tego, czy rozpoznawanie twarzy w czasie rzeczywistym da się pogodzić z przepisami o ochronie danych osobowych.

3. Naruszenie zasady niezbędności i proporcjonalności

Technologia ma swoje ograniczenia, a źle wykorzystana – może szkodzić. Dlatego jej użycie przez państwo podlega konkretnym rygorom. Dopuszczone narzędzia powinny być niezbędne i proporcjonalne do problemów, które mają rozwiązywać.

Stoimy na stanowisku, że monitoring wyposażony w algorytmy nie spełnia tych rygorów. Istnieją liczne dowody na to, że monitoring wizyjny nie zapobiega przestępczości i nie zwiększa bezpieczeństwa. Francuskie władze nawet nie próbują nikogo przekonywać, że jest inaczej – i test na legalność ograniczenia wolności przegrywają walkowerem.

4. Normalizacja stanu wyjątkowego

Przez ponad 20 lat tzw. wojny z terroryzmem i podczas niedawnej pandemii koronawirusa mogliśmy obserwować stopniowy wzrost wykorzystania środków nadzoru w przestrzeni publicznej. Okazuje się, że organizacja imprez sportowych to pole do testowania nowych rozwiązań mających zwiększać bezpieczeństwo, które po zakończeniu eventu bynajmniej nie wracają do „magazynów”. Możemy zatem z dużym prawdopodobieństwem założyć, że algorytmiczny monitoring nie zniknie po igrzyskach.

We Francji cyklicznie odbywają się demonstracje, które niekiedy wiążą się z naruszeniem porządku publicznego i niszczeniem mienia. Czy w takiej sytuacji rząd nie wykorzysta faktu, że kamery już są, żeby utrudnić protesty np. przeciwko podwyższeniu wieku emerytalnego?

Obawy dotyczące możliwości wykorzystania systemów rozpoznawania twarzy do innych celów, niż pierwotnie zakładano, są podsycane także ujawnionymi kilka lat temu informacjami z Indii. Tamtejsza policja kupiła kamery z systemem rozpoznawania twarzy, które miały służyć do poszukiwania zaginionych dzieci. Jak przyznał premier Narendra Modi, obecnie kamery są wykorzystywane do filmowania protestów w celu identyfikacji osób podejrzewanych „o naruszenie porządku”.

Najbardziej uderzający przypadek materializacji zagrożeń związanych ze stosowaniem systemów rozpoznawania twarzy mogliśmy obserwować podczas długotrwałych protestów w Hongkongu. W mieście walczącym o swoją niezależność względem Chin zastosowano tysiące kamer, które dziś służą do rozpoznawania uczestników antyrządowych protestów.

Władze boją się krytyki igrzysk?

Zwiększanie nadzoru ze względu na szczególne wydarzenia to nie tylko francuska specyfika. W Polsce doświadczyliśmy tego kilkukrotnie: podczas EURO 2012, szczytu klimatycznego w Katowicach (COP24) czy z okazji Światowych Dni Młodzieży. Miasta-gospodarze na czas takiej imprezy przestawały należeć do swoich mieszkańców i mieszkanek, zamieniając się w zamknięte strefy pod szczególnym nadzorem. Przyznanie danemu państwu prawa organizacji takiej imprezy jest w końcu zaszczytem – o prawa człowieka i wolność przemieszczania się pomartwimy się kiedy indziej.

Tymczasem głosy krytyczne wobec imprez tej rangi są coraz głośniejsze. Koszty dla gospodarki, środowiska, lokalnych społeczności, praw człowieka są ogromne. Jeśli władze spodziewają się protestów, to prawdopodobnie mają rację.

Organizacje zapraszają do rozmowy

Jak na razie prawo żadnego kraju Unii Europejskiej nie dopuszcza otwarcie powszechnego stosowania monitoringu automatycznie rozpoznającego zagrożenia. W Polsce pojawiły się doniesienia o wykorzystywaniu kamer wyposażonych w funkcje rozpoznawania twarzy przez ABW (pisaliśmy o tym, dlaczego to niebezpieczne). Nie chcielibyśmy, żeby Francja przekroczyła ten rubikon. Dlatego w gronie 38 organizacji społecznych z całej Europy podpisaliśmy list otwarty w tej sprawie, przygotowany przez European Center for Not-for-Profit Law.

Mamy nadzieję, że francuskie władze przyjmą zaproszenie do rozmowy na temat tego, jak przygotować tak wielką imprezę z szacunkiem dla praw człowieka, bez technologicznego dopingu dla służb.

List i inne materiały dotyczące rozpoznawania twarzy

ECNL: Civil society open letter on the proposed French law on the 2024 Olympic and Paralympic Games

Panoptykon: List otwarty

Panoptykon 4.0: Kiedy twarz staje się kluczem. Rozmowa z dr Magdaleną Tomaszewską-Michalak


Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy.

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.