Artykuł 12.06.2023 5 min. czytania Tekst Image Wybieracie się na wybory? Demonstrację? A może mecz na Narodowym lub igrzyska w Paryżu? Szykujcie się na inwigilację biometryczną – nic nie stanie na przeszkodzie temu, żeby ją prowadzić, jeśli europosłowie i europosłanki pójdą za propozycją Europejskiej Partii Ludowej. W Unii Europejskiej finiszują prace nad regulacją sztucznej inteligencji. Akt o AI miał chronić nas, nasze prawa i wolności, przed negatywnymi konsekwencjami wykorzystania systemów stosujących tę technologię. Komisje rynku wewnętrznego (IMCO) i wolności obywatelskich (LIBE) wypracowały kompromis, zgodnie z którym regulacja miała m.in. zakazywać biometrycznej inwigilacji w czasie rzeczywistym. Użycie takiej technologii mogłoby być tylko w wyjątkowych sytuacjach dopuszczone przez sąd. Członkowie i członkinie Europejskiej Partii Ludowej uważają jednak, że to zbyt daleko idące ograniczenie, i chcą umożliwić stosowanie inwigilacji biometrycznej w „wyjątkowych sytuacjach” rządom krajów członkowskich – także na mocy decyzji administracyjnej, czyli bez konieczności uzyskania zgody sądu. Dlaczego inwigilacja biometryczna jest niebezpieczna? Rozwój sztucznej inteligencji to nie tylko tańczące roboty i wielkie modele językowe kompilujące przegadane rozprawki. To też nowe narzędzia dla organów ścigania. Systemy wykorzystujące zdalną identyfikację biometryczną (RBI – remote biometric identification) w czasie rzeczywistym nadają się do rozpoznawania i śledzenia konkretnych osób w przestrzeni publicznej: na ulicach, dworcach, lotniskach, w centrach handlowych. Aby dobrze działały, potrzebują danych o ludziach. Dane o osobach podejrzewanych o przestępstwa to za mało – żeby taki system dobrze sobie radził z rozpoznawaniem wzorców w ludzkim zachowaniu, musi mieć tych danych dużo, dużo więcej. Najlepiej o wszystkich. Europejska Partia Ludowa (EPP), do której należą m.in. polska Platforma Obywatelska i Polskie Stronnictwo Ludowe, chce, żeby rządy mogły „w wyjątkowych sytuacjach” uchylić zakaz stosowania takich systemów biometrycznych. Co to za wyjątkowe sytuacje? Poszukiwanie osób zaginionych, podejrzenie zagrożenia ataku terrorystycznego oraz poszukiwanie osób podejrzanych o popełnienie przestępstw zagrożonych karą powyżej trzech lat pozbawienia wolności. Dotychczasowa „wojna z terroryzmem” to za mało? Lata „wojny z terroryzmem”, a na polskim podwórku: lata walki ze społeczeństwem, każą domniemywać, że te „wyjątkowe” sytuacje w gruncie rzeczy wcale takie wyjątkowe nie będą. Światowe Dni Młodzieży, szczyt klimatyczny, czarny protest, igrzyska olimpijskie? Francuskie władze już przyjęły przepisy dopuszczające inwigilację biometryczną w czasie olimpiady i paraolimpiady w Paryżu w 2024 r. Co stanie na przeszkodzie, żeby polskie władze sięgnęły po biometryczną inwigilację wobec ludzi domagających się na ulicach poszanowania praworządności czy praw kobiet? To nie science fiction – takie technologie są rozwijane jako narzędzia kontrolowania społeczeństwa w Chinach czy Singapurze. Nie zapominajmy też, że systemy rozpoznawania twarzy, jak każde narzędzie oparte na sztucznej inteligencji, popełniają błędy. Błąd w takim przypadku oznacza niesłuszne oskarżenie danej osoby o poważne przestępstwo czy akt terroryzmu. Przy czym nie każda osoba ma równe szanse paść ofiarą takiego błędu. Nie jesteś białym mężczyzną w średnim wieku? Ryzyko, że to spotka właśnie ciebie, jest znacząco wyższe: nie wszystkie grupy ludzi są jednakowo reprezentowane w bazach danych, na których trenowane są systemy sztucznej inteligencji. Co zrobią europosłowie i europosłanki? Dopiero co cieszyliśmy się w Panoptykonie z dobrych poprawek, które członkowie i członkinie komisji IMCO i LIBE wprowadzili do aktu o sztucznej inteligencji. To właśnie oni rozszerzyli listę zakazanych zastosowań AI (w tym o zakaz biometrycznych systemów inwigilacji osób w czasie rzeczywistym). Mieliśmy nadzieję, że na kolejnym etapie prac nad tą regulacją uda się jeszcze odrobinę wzmocnić ochronę praw i wolności człowieka w zetknięciu z narzędziami wykorzystującymi sztuczną inteligencję. W aktualnej wersji aktu brakuje nam m.in. obowiązku informowania ludzi o tym, że są poddani działaniu systemów AI oraz bezwzględnego prawa do wyjaśnienia istotnych decyzji podjętych z użyciem AI. Według Euractiv główne grupy polityczne w Parlamencie Europejskim wstępnie porozumiały się, że uznają kompromisową wersję aktu przyjętą w maju w komisjach IMCO i LIBE i w związku z tym nie będą składały poprawek przed głosowaniem plenarnym. Jak podaje portal, część polityków i polityczek uważa, że składając tak kontrowersyjne propozycje poprawek (jak m.in. poluzowanie ograniczeń w stosowaniu inwigilacji biometrycznej), EPP naruszyła to porozumienie. Kto przeciw inwigilacji biometrycznej, niech podniesie rękę! W tym tygodniu Parlament Europejski zagłosuje nad aktem o sztucznej inteligencji w głosowaniu plenarnym. W tym ważnym głosowaniu my – organizacje społeczne śledzące prace nad aktem o sztucznej inteligencji od samego początku – rekomendujemy posłom i posłankom: poparcie kompromisu, jaki wypracowały komisje IMCO i LIBE; poparcie kilku naprawdę potrzebnych poprawek. Chodzi m.in. o: wydłużenie listy zakazanych zastosowań AI (np. o wykorzystanie biometrii w polityce migracyjnej), szersze prawo do wyjaśnienia dla osób poddanych działaniu AI, umożliwienie organizacjom społecznym występowania w interesie publicznym i w imieniu osób, których prawa zostały naruszone. Głosowanie w Parlamencie Europejskim to nie koniec prac nad aktem o AI. Treść tej regulacji może się jeszcze zmienić (nawet bardzo!) w wyniku negocjacji trójstronnych między Komisją Europejską, Parlamentem i Radą Unii Europejskiej. Niektóre rządy chcą uzyskać szerokie prawo stosowania AI dla celów bezpieczeństwa narodowego, w związku z czym najwygodniejszym rozwiązaniem byłoby wyłączenie tego obszaru z zakresu regulacji. Najwygodniejszym rzecz jasna dla rządów, bo o ochronie praw ludzi nadzorowanych przez systemy AI możemy wtedy zapomnieć. Im więcej europosłów i europosłanek opowie się teraz przeciwko poluzowaniu ograniczeń w stosowaniu inwigilacji biometrycznej, tym większa szansa, że ta propozycja nie powróci na ostatniej prostej, czyli w negocjacjach z Radą UE. Polecamy: Euractiv: AI Act’s plenary vote cast with uncertainty as political deal crumbles Parlament Europejski: REPORT on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts EDRi: Remote biometric identification: a technical & legal guide Anna Obem Współpraca: Dominika Chachuła, Filip Konopczyński Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł O co walczymy w unijnej regulacji AI? 5 postulatów Zamiast realnego zewnętrznego nadzoru nad potencjalnie szkodliwym wykorzystaniem sztucznej inteligencji i narzędzi przejrzystości i kontroli dla ludzi poddanych ich działaniu checklista „do odhaczenia” – to najpoważniejsze zarzuty wobec zaprezentowanego w kwietniu przez Komisję Europejską projektu… 01.12.2021 Tekst Artykuł Cyfrowy policjant nas nie uratuje [wywiad] „To samo, co zrobiono z kasjerami w supermarketach, dzieje się powoli z policjantami i sędziami. 11.09.2024 Tekst Artykuł Apel do europosłów przed głosowaniem w sprawie AI Act: zagłosujcie za ochroną ludzi i ich praw Zbliża się głosowanie plenarne w sprawie aktu o sztucznej inteligencji. Organizacje społeczne apelują do europosłów i europosłanek o przyjęcie rozwiązań chroniących ludzi przed zagrożeniami związanymi z wykorzystaniem AI. Koalicja European Digital Rights (EDRi), do której należy Fundacja Panoptykon… 04.05.2023 Tekst