Artykuł 20.06.2023 4 min. czytania Tekst Image Unia Europejska podzieli osoby wjeżdżające na jej teren z pomocą sztucznej inteligencji. Nowa regulacja AI ma dopuszczać stosowanie systemów wysokiego ryzyka w zarządzaniu migracją, azylem i kontrolą granic. Migranci bez gwarancji ochrony przed sztuczną inteligencją W AI Act zakazane zostały narzędzia służące m.in. do predykcji kryminalnej, rozpoznawania emocji czy kategoryzowania osób na podstawie ich cech fizycznych. Ale podobne narzędzia będą mogły być stosowane w kontekście zarządzania migracją, azylem i kontrolą granic. W ten sposób politycy i polityczki podzielili ludzi na dwie kategorie: swoich i obcych. Do „ochrony” Unii przed napływem „obcych” dopuszczone zostało użycie m.in.: wykrywaczy kłamstw, narzędzi do oceny ryzyka tzw. nieregularnej imigracji i zagrożenia zdrowia ze strony osób przybywających do krajów Unii, narzędzi do weryfikacji dokumentów podróży i innej dokumentacji, narzędzi do oceny wniosków o azyl, wizę czy pozwolenie pobytu, narzędzi monitoringu i inwigilacji służących do rozpoznawania osób przekraczających granice, narzędzi do „przewidywania i prognozowania trendów” związanych z ruchem migracyjnym i przekraczaniem granic. Organizacje społeczne nie będą mogły złożyć skargi w imieniu migranta Polski rząd być może zaciera ręce na wieść, że postawiony za 1,6 miliarda złotych mur na granicy z Białorusią będzie mógł wyposażyć np. w tzw. inteligentne kamery. Kraje południa Europy być może rozglądają się za narzędziami, które pomogą urzędnikom na granicy sortować osoby przybywające na te, które mają szansę dostać azyl, i te, które jej nie mają (i zasłonić się decyzją – uważanej za pozbawioną ludzkich uprzedzeń – sztucznej inteligencji). Dlaczego to zasłona dymna? Przeczytaj nasz przewodnik Sztuczna inteligencja non-fiction. Politycy i policzki może uspokajają swoje sumienia tym, że w teorii będzie można złożyć skargę od decyzji. Powodzenia! Przepadł postulat, żeby organizacje społeczne mogły to zrobić w czyimś imieniu, a skoro decyzja będzie odmowna, to sama osoba zainteresowana nie będzie miała fizycznie dostępu do europejskich urzędów czy sądów. Migracji nie powstrzyma ani mur na granicy, ani niebezpieczeństwo podróży, ani profilowanie za pomocą sztucznej inteligencji. Nie wiemy, co Unia Europejska może zrobić, żeby poradzić sobie z napływem migrantów i migrantek. Ale wiemy, czego robić nie powinna. Pozbawianie osób spoza Unii Europejskiej ochrony, która w tej samej regulacji została przyznała Europejczykom i Europejkom, jest po ludzku złe. Pamiętajmy jednak, że w celu wyłapania z grupy ludzi tych, którzy spełniają dane kryterium, trzeba sprawdzić całą grupę (np. żeby znaleźć tych, którzy posługują się podrobionym paszportem, trzeba sprawdzić wszystkich podróżujących). Europejczykom i Europejkom będzie łatwiej skorzystać z prawa do skargi do urzędu czy sądu. Pytanie, czy to zrobią i jaki będzie efekt, pozostaje otwarte. Na etapie prac nad AI Act Panoptykon wraz z siecią EDRi postulował całkowity zakaz stosowania narzędzi wysokiego ryzyka w zarządzaniu migracją, azylem i kontrolą granic, a także umożliwienie organizacjom społecznym występowanie w imieniu osób pokrzywdzonych decyzją AI. Parlament Europejski nie zdecydował się przyjęcie tych rozwiązań. Ostatnia szansa w negocjacjach trójstronnych między Komisją Europejską, Parlamentem i Radą Unii Europejskiej. Niewielka – zważywszy na to, że Komisja w pierwotnej treści aktu zaproponowała znikomą ochronę dla praw ludzi w ogóle, Parlament nie zdecydował się na rozszerzenie jej na osoby spoza Unii, a Rada Unii Europejskiej niedawno dogadała się co do sortowania migrantek i migrantów przez władze na granicy. Polecamy: Panoptykon: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Aleksandra Iwańska Autorka Temat biometria programy masowej inwigilacji sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Pamiętajmy o Snowdenie (i ujawnionej przez niego masowej inwigilacji) Sześć lat temu Edward Snowden ujawnił światu, że amerykańskie służby inwigilują Internet na masową skalę, wywołując tym samym debatę o tym, co wolno służbom w ramach wojny wypowiedzianej terroryzmowi. 18.09.2019 Tekst Poradnik AI Act w działaniu 2. Siri, Alexa i inni smart asystenci Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów? 10.05.2024 Tekst Artykuł Uśmiech, proszę! Sala obsługi interesantów sopockiego urzędu miasta i niektóre placówki PKO BP – w tych miejscach możecie natknąć się na urządzenia rozpoznające, czy siedzący naprzeciw Was pracownik się uśmiecha i jak często to robi. Co więcej, Wasza – jako klientów – mimika też podlega analizie i podniesione… 28.10.2019 Tekst