Artykuł 20.06.2023 4 min. czytania Tekst Image Unia Europejska podzieli osoby wjeżdżające na jej teren z pomocą sztucznej inteligencji. Nowa regulacja AI ma dopuszczać stosowanie systemów wysokiego ryzyka w zarządzaniu migracją, azylem i kontrolą granic. Migranci bez gwarancji ochrony przed sztuczną inteligencją W AI Act zakazane zostały narzędzia służące m.in. do predykcji kryminalnej, rozpoznawania emocji czy kategoryzowania osób na podstawie ich cech fizycznych. Ale podobne narzędzia będą mogły być stosowane w kontekście zarządzania migracją, azylem i kontrolą granic. W ten sposób politycy i polityczki podzielili ludzi na dwie kategorie: swoich i obcych. Do „ochrony” Unii przed napływem „obcych” dopuszczone zostało użycie m.in.: wykrywaczy kłamstw, narzędzi do oceny ryzyka tzw. nieregularnej imigracji i zagrożenia zdrowia ze strony osób przybywających do krajów Unii, narzędzi do weryfikacji dokumentów podróży i innej dokumentacji, narzędzi do oceny wniosków o azyl, wizę czy pozwolenie pobytu, narzędzi monitoringu i inwigilacji służących do rozpoznawania osób przekraczających granice, narzędzi do „przewidywania i prognozowania trendów” związanych z ruchem migracyjnym i przekraczaniem granic. Organizacje społeczne nie będą mogły złożyć skargi w imieniu migranta Polski rząd być może zaciera ręce na wieść, że postawiony za 1,6 miliarda złotych mur na granicy z Białorusią będzie mógł wyposażyć np. w tzw. inteligentne kamery. Kraje południa Europy być może rozglądają się za narzędziami, które pomogą urzędnikom na granicy sortować osoby przybywające na te, które mają szansę dostać azyl, i te, które jej nie mają (i zasłonić się decyzją – uważanej za pozbawioną ludzkich uprzedzeń – sztucznej inteligencji). Dlaczego to zasłona dymna? Przeczytaj nasz przewodnik Sztuczna inteligencja non-fiction. Politycy i policzki może uspokajają swoje sumienia tym, że w teorii będzie można złożyć skargę od decyzji. Powodzenia! Przepadł postulat, żeby organizacje społeczne mogły to zrobić w czyimś imieniu, a skoro decyzja będzie odmowna, to sama osoba zainteresowana nie będzie miała fizycznie dostępu do europejskich urzędów czy sądów. Migracji nie powstrzyma ani mur na granicy, ani niebezpieczeństwo podróży, ani profilowanie za pomocą sztucznej inteligencji. Nie wiemy, co Unia Europejska może zrobić, żeby poradzić sobie z napływem migrantów i migrantek. Ale wiemy, czego robić nie powinna. Pozbawianie osób spoza Unii Europejskiej ochrony, która w tej samej regulacji została przyznała Europejczykom i Europejkom, jest po ludzku złe. Pamiętajmy jednak, że w celu wyłapania z grupy ludzi tych, którzy spełniają dane kryterium, trzeba sprawdzić całą grupę (np. żeby znaleźć tych, którzy posługują się podrobionym paszportem, trzeba sprawdzić wszystkich podróżujących). Europejczykom i Europejkom będzie łatwiej skorzystać z prawa do skargi do urzędu czy sądu. Pytanie, czy to zrobią i jaki będzie efekt, pozostaje otwarte. Na etapie prac nad AI Act Panoptykon wraz z siecią EDRi postulował całkowity zakaz stosowania narzędzi wysokiego ryzyka w zarządzaniu migracją, azylem i kontrolą granic, a także umożliwienie organizacjom społecznym występowanie w imieniu osób pokrzywdzonych decyzją AI. Parlament Europejski nie zdecydował się przyjęcie tych rozwiązań. Ostatnia szansa w negocjacjach trójstronnych między Komisją Europejską, Parlamentem i Radą Unii Europejskiej. Niewielka – zważywszy na to, że Komisja w pierwotnej treści aktu zaproponowała znikomą ochronę dla praw ludzi w ogóle, Parlament nie zdecydował się na rozszerzenie jej na osoby spoza Unii, a Rada Unii Europejskiej niedawno dogadała się co do sortowania migrantek i migrantów przez władze na granicy. Polecamy: Panoptykon: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Aleksandra Iwańska Autorka Temat biometria programy masowej inwigilacji sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Odpowiedzialni za AI. Rozmowa z Sebastianem Szymańskim Czym jest sztuczna inteligencja, z jakimi zadaniami radzi sobie lepiej niż my, a w czym nam nie dorównuje? Czy jest czarną skrzynką, czy da się do niej zajrzeć? Kto jest odpowiedzialny za jej decyzje? Co zrobić, żeby nam „nie zaszkodziła?” Rozmawiamy z dr Sebastianem Szymańskim, filozofem,… 20.02.2020 Dźwięk Podcast Zaglądamy za kulisy powstawania AI Act. Rozmowa z Kosmą Złotowskim „Czy to dobry czas, żeby uregulować AI? Moja odpowiedź brzmi: zdecydowanie tak. To dobry czas ze względu na to, jak ogromne znaczenie ma AI” – powiedział Dragoș Tudorache, jeden ze sprawozdawców ds. aktu o AI, tuż przed tym, jak Parlament Europejski zagłosował nad rozporządzeniem. 29.06.2023 Dźwięk Artykuł Apel do europosłów przed głosowaniem w sprawie AI Act: zagłosujcie za ochroną ludzi i ich praw Zbliża się głosowanie plenarne w sprawie aktu o sztucznej inteligencji. Organizacje społeczne apelują do europosłów i europosłanek o przyjęcie rozwiązań chroniących ludzi przed zagrożeniami związanymi z wykorzystaniem AI. Koalicja European Digital Rights (EDRi), do której należy Fundacja Panoptykon… 04.05.2023 Tekst