Artykuł 11.05.2023 7 min. czytania Tekst Image Tytuł Na liście zakazów biometryczne systemy identyfikacji osób i predykcja kryminalna Systemy wysokiego ryzyka pod lupą Lepsza ochrona osób dotkniętym decyzjami systemów AI Definicja AI odporna na gwałtowny rozwój technologii Nasze postulaty przed głosowaniem plenarnym w Parlamencie Europejskim Co dalej? Tytuł Na liście zakazów biometryczne systemy identyfikacji osób i predykcja kryminalna Systemy wysokiego ryzyka pod lupą Lepsza ochrona osób dotkniętym decyzjami systemów AI Definicja AI odporna na gwałtowny rozwój technologii Nasze postulaty przed głosowaniem plenarnym w Parlamencie Europejskim Co dalej? Za nami kolejny etap prac nad unijną regulacją sztucznej inteligencji. Dziś rano swoje poprawki do AI Act przyjęły komisje IMCO i LIBE Parlamentu Europejskiego. To dobre poprawki, wzmacniające ochronę naszych praw i wolności. Teraz rozporządzenie trafi pod głosowanie parlamentarne Parlamentu Europejskiego. Europosłowie i europosłanki pracujący w komisjach handlu międzynarodowego (IMCO – Internal Market Committee) i wolności obywatelskich (LIBE – Civil Liberties Committee) wsłuchali się w postulaty organizacji obywatelskich. Przede wszystkim rozszerzyli listę zakazanych zastosowań sztucznej inteligencji i opowiedzieli się za wprowadzeniem mechanizmu oceny wpływu systemów wysokiego ryzyka na prawa podstawowe. Przyznali też większą ochronę osobom dotkniętym przez decyzje systemów AI i rozszerzyli definicję AI w taki sposób, żeby była odporna na gwałtowny rozwój technologiczny. Poniżej opisujemy szczegółowo poprawki przyjęte w komisjach (i piszemy, co dalej). Na liście zakazów biometryczne systemy identyfikacji osób i predykcja kryminalna W pierwotnej wersji aktu o sztucznej inteligencji lista zakazanych zastosowań była bardzo uboga. Przez to nie gwarantowała ochrony przed wykorzystaniem technologii w sposób poważnie zagrażający naszym prawom i wolnościom. Zainteresowanie mediów, opinii publicznej, apele badaczy oraz zaangażowanie organizacji broniących praw cyfrowych przyniosły efekt i na liście zakazanych zastosowań znalazły się także: biometryczna identyfikacja osób w czasie rzeczywistym w miejscach dostępnych publicznie; biometryczna identyfikacja osób ex post (następcza) – z wyjątkiem przypadków najpoważniejszych przestępstw i pod warunkiem uzyskania zgody sądu; biometryczna kategoryzacja osób na podstawie wrażliwych cech, indywidualnych i grupowych – takich jak płeć, rasa, pochodzenie etniczne, narodowość i obywatelstwo, wyznanie czy poglądy polityczne; tzw. predykcja kryminalna, czyli systemy umożliwiające profilowanie potencjalnych sprawców przestępstw, wykorzystujące dane o zachowaniach, cechach czy geolokalizacyjne; systemy rozpoznawania emocji używane m.in. w pracy, szkolnictwie migracji czy celach związanych ze zwalczaniem przestępczości; aplikacje oparte na masowym pozyskiwaniu danych z Internetu czy kamer monitoringu wizyjnego – takich jak np. Clearview. Systemy wysokiego ryzyka pod lupą Jednym z najważniejszych postulatów sieci European Digital Rights i Panoptykonu było poddanie systemów wysokiego ryzyka większej kontroli. Udało się: takie systemy będą oceniane pod kątem ich wpływu na prawa podstawowe, bezpieczeństwo, demokrację i środowisko (w ramach tzw. Fundamental Rights Impact Assessment). Dodatkowo instytucje publiczne oraz duże platformy (tj. gatekeepers, czyli dostawy usług kluczowych, zdefiniowani w Digital Markets Act) będą musiały publikować informacje o takich systemach w bazie danych prowadzonej przez Komisję Europejską. Lepsza ochrona osób dotkniętym decyzjami systemów AI Systemy oparte o AI są wykorzystywane do podejmowanie decyzji w sprawach osób indywidualnych i będą wykorzystywane coraz szerzej. Przykłady? Automatyczne rozpatrywanie wniosków kredytowych, procesów rekrutacyjnych, wniosków migracyjnych, decyzje moderacyjne platform społecznościowych… Europosłowie i europosłanki zdecydowali, że osoby, których prawa zostaną naruszone wydaną w taki sposób decyzją, będą mogły wnieść skargę do krajowej instytucji ds. AI. Będą też mogły zwrócić się do sądu w swoim kraju. Nowe uprawnienia zyskają też organizacje społeczne, które będą mogły pełnić rolę doradczą wobec unijnego organu odpowiedzialnego za egzekwowanie nowego prawa (AI Office). To ważne, bo organ będzie odpowiedzialny m.in. za tworzenie praktycznych standardów, wzorców czy koordynację pracy pomiędzy Komisją Europejską, krajowymi organami ds. AI a firmami. Definicja AI odporna na gwałtowny rozwój technologii Niedawna medialna burza wokół „inteligentnych czatów” odniosła pozytywny skutek – uświadomiła opinii publicznej, jak mało wiemy o AI i potencjalnych negatywnych konsekwencjach jej rozwoju. Wnioski z tej lekcji znalazły odzwierciedlenie w definicji sztucznej inteligencji, którą przyjęły komisje. Jest szansa, że w obecnym kształcie będzie ona (nieco) bardziej odporna na rozwój technologii. I tak popularne obecnie narzędzia typu ChatGPT (a także Bard, Stable Diffusion czy LaMDa) zostaną uregulowane w ramach osobnej kategorii systemów – AI ogólnego przeznaczenia i systemach opartych na modelach podstawowych (w tym w tzw. dużych modelach językowych). Tekst przyjęty przez komisję przemyca też ogólne wartości, którymi powinny kierować się podmioty projektujące, tworzące czy wdrażające systemy AI – w tym przypadku niestety bez konkretnych narzędzi, którymi można się posłużyć, jeśli te zasady są naruszane. Nasze postulaty przed głosowaniem plenarnym w Parlamencie Europejskim Przyjęte przez komisję IMCO i LIBE poprawki to zmiana na lepsze, ale rozporządzenie mogłoby znacznie skuteczniej chronić nasze prawa i wolności. Przed głosowaniem plenarnym będziemy apelować do europosłów i europosłanek o to, żeby: 1. System AI był kwalifikowany jako system wysokiego ryzyka niezależnie od tego, czy jego wykorzystanie będzie powodowało ryzyko wywołania „znaczącej szkody”. Naszym zdaniem do tej kategorii powinny się zaliczać np. używane w miejscu pracy czy w szkole systemy, które mogą powodować szkody i naruszenia prawa, kropka. Szczególnie, że sam termin „znacząca szkoda” miałby być doprecyzowany przez Komisję Europejską dopiero za pewien czas. Obawiamy się, że takie dodatkowe kryterium „znaczącej szkody” zostanie wykorzystane jako furtka do unikania rejestrowania systemów w tej kategorii. 2. Regulacje AI obejmowały także bezpieczeństwo publiczne. Inaczej istnieje ryzyko, że państwa będą stosowały nieprzejrzyste i obarczone błędami systemy AI do decydowania o nas w zakresie bezpieczeństwa publicznego, kontroli granic, walki z dezinformacją czy jakiegokolwiek innego działania, które rządzący określą jako „zagrażające bezpieczeństwu narodowemu”. 3. Prawo do uzyskania wyjaśnienia decyzji podjętej z wykorzystaniem AI przysługiwało także wtedy, gdy w procesie decyzyjnym brał udział człowiek. Obecna wersja zawęża to uprawnienie do sytuacji, kiedy decyzja jest w pełni zautomatyzowana. Wystarczy, żeby człowiek kliknął „akceptuj decyzję”, żeby nie przysługiwało. 4. Organizacje społeczne mogły reprezentować osoby, których prawa zostały naruszone. Dzięki takiemu przepisowi organizacje społeczne takie jak Panoptykon będą mogły wnosić skargi w imieniu osób – i w ten sposób dążyć do zmiany złych praktyk. Co dalej? Według aktualnego kalendarza europosłowie i europosłanki pochylą się nad rozporządzeniem już w czerwcu. Następny krok to negocjacje trójstronne, w ramach których wspólny, ostateczny już tekst rozporządzenia dogadują między sobą Parlament Europejski, Rada Unii Europejskiej i Komisja Europejska. Dzięki dzisiejszemu głosowaniu w komisjach możemy mieć nadzieję, że AI Act będzie bronił nas przed nadużyciami z wykorzystaniem sztucznej inteligencji. Nie zamierzamy jednak biernie czekać na zmasowany lobbing firm, które wolałyby, żeby AI Act chronił nas mniej. Trzymajcie kciuki (i wspierajcie nasze działania). Anna Obem Autorka Filip KonopczyńskiWspółpraca Image Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł LaMDA – wiele hałasu o nic? W kwietniu 2022 r. zatrudniony w Google inżynier Blake Lemoine w wewnętrznym 22.11.2022 Tekst Podcast AI Act dla zwykłego człowieka. Rozmowa z dr Gabrielą Bar W marcu 2024 r. Parlament Europejski zagłosował nad aktem o sztucznej inteligencji. Co prawda trwa jeszcze uzgadnianie wersji językowych, ale można się spodziewać, że kolejne prace i zatwierdzenie tekstu będą już tylko formalnością. 28.03.2024 Dźwięk Artykuł Prywatność po drugiej stronie „Czarnego lustra” [recenzja] W szóstym sezonie Black Mirror poznajemy Joan. Joan jest okropna. Skąd to wiemy? Cóż, tytuł odcinka nie pozostawia złudzeń – możemy się jednak o tym przekonać naocznie. 26.07.2023 Tekst