AI Act: europosłowie nie zrezygnowali z ochrony ludzi przed sztuczną inteligencją

Artykuł
11.05.2023
7 min. czytania
Tekst
Image
przykładowy kod programistyczny

Za nami kolejny etap prac nad unijną regulacją sztucznej inteligencji. Dziś rano swoje poprawki do AI Act przyjęły komisje IMCO i LIBE Parlamentu Europejskiego. To dobre poprawki, wzmacniające ochronę naszych praw i wolności. Teraz rozporządzenie trafi pod głosowanie parlamentarne Parlamentu Europejskiego.

Europosłowie i europosłanki pracujący w komisjach handlu międzynarodowego (IMCO – Internal Market Committee) i wolności obywatelskich (LIBE – Civil Liberties Committee) wsłuchali się w postulaty organizacji obywatelskich.

Przede wszystkim rozszerzyli listę zakazanych zastosowań sztucznej inteligencji i opowiedzieli się za wprowadzeniem mechanizmu oceny wpływu systemów wysokiego ryzyka na prawa podstawowe. Przyznali też większą ochronę osobom dotkniętym przez decyzje systemów AI i rozszerzyli definicję AI w taki sposób, żeby była odporna na gwałtowny rozwój technologiczny.

Poniżej opisujemy szczegółowo poprawki przyjęte w komisjach (i piszemy, co dalej).

Na liście zakazów biometryczne systemy identyfikacji osób i predykcja kryminalna

W pierwotnej wersji aktu o sztucznej inteligencji lista zakazanych zastosowań była bardzo uboga. Przez to nie gwarantowała ochrony przed wykorzystaniem technologii w sposób poważnie zagrażający naszym prawom i wolnościom.

Zainteresowanie mediów, opinii publicznej, apele badaczy oraz zaangażowanie organizacji broniących praw cyfrowych przyniosły efekt i na liście zakazanych zastosowań znalazły się także:

  • biometryczna identyfikacja osób w czasie rzeczywistym w miejscach dostępnych publicznie;
  • biometryczna identyfikacja osób ex post (następcza) – z wyjątkiem przypadków najpoważniejszych przestępstw i pod warunkiem uzyskania zgody sądu;
  • biometryczna kategoryzacja osób na podstawie wrażliwych cech, indywidualnych i grupowych – takich jak płeć, rasa, pochodzenie etniczne, narodowość i obywatelstwo, wyznanie czy poglądy polityczne;
  • tzw. predykcja kryminalna, czyli systemy umożliwiające profilowanie potencjalnych sprawców przestępstw, wykorzystujące dane o zachowaniach, cechach czy geolokalizacyjne;
  • systemy rozpoznawania emocji używane m.in. w pracy, szkolnictwie migracji czy celach związanych ze zwalczaniem przestępczości;
  • aplikacje oparte na masowym pozyskiwaniu danych z Internetu czy kamer monitoringu wizyjnego – takich jak np. Clearview.

Systemy wysokiego ryzyka pod lupą

Jednym z najważniejszych postulatów sieci European Digital Rights i Panoptykonu było poddanie systemów wysokiego ryzyka większej kontroli. Udało się: takie systemy będą oceniane pod kątem ich wpływu na prawa podstawowe, bezpieczeństwo, demokrację i środowisko (w ramach tzw. Fundamental Rights Impact Assessment).

Dodatkowo instytucje publiczne oraz duże platformy (tj. gatekeepers, czyli dostawy usług kluczowych, zdefiniowani w Digital Markets Act) będą musiały publikować informacje o takich systemach w bazie danych prowadzonej przez Komisję Europejską.

Lepsza ochrona osób dotkniętym decyzjami systemów AI

Systemy oparte o AI są wykorzystywane do podejmowanie decyzji w sprawach osób indywidualnych i będą wykorzystywane coraz szerzej. Przykłady? Automatyczne rozpatrywanie wniosków kredytowych, procesów rekrutacyjnych, wniosków migracyjnych, decyzje moderacyjne platform społecznościowych… Europosłowie i europosłanki zdecydowali, że osoby, których prawa zostaną naruszone wydaną w taki sposób decyzją, będą mogły wnieść skargę do krajowej instytucji ds. AI. Będą też mogły zwrócić się do sądu w swoim kraju.

Nowe uprawnienia zyskają też organizacje społeczne, które będą mogły pełnić rolę doradczą wobec unijnego organu odpowiedzialnego za egzekwowanie nowego prawa (AI Office). To ważne, bo organ będzie odpowiedzialny m.in. za tworzenie praktycznych standardów, wzorców czy koordynację pracy pomiędzy Komisją Europejską, krajowymi organami ds. AI a firmami.

Definicja AI odporna na gwałtowny rozwój technologii

Niedawna medialna burza wokół „inteligentnych czatów” odniosła pozytywny skutek – uświadomiła opinii publicznej, jak mało wiemy o AI i potencjalnych negatywnych konsekwencjach jej rozwoju. Wnioski z tej lekcji znalazły odzwierciedlenie w definicji sztucznej inteligencji, którą przyjęły komisje. Jest szansa, że w obecnym kształcie będzie ona (nieco) bardziej odporna na rozwój technologii.

I tak popularne obecnie narzędzia typu ChatGPT (a także Bard, Stable Diffusion czy LaMDa) zostaną uregulowane w ramach osobnej kategorii systemów – AI ogólnego przeznaczenia i systemach opartych na modelach podstawowych (w tym w tzw. dużych modelach językowych).

Tekst przyjęty przez komisję przemyca też ogólne wartości, którymi powinny kierować się podmioty projektujące, tworzące czy wdrażające systemy AI – w tym przypadku niestety bez konkretnych narzędzi, którymi można się posłużyć, jeśli te zasady są naruszane.

Nasze postulaty przed głosowaniem plenarnym w Parlamencie Europejskim

Przyjęte przez komisję IMCO i LIBE poprawki to zmiana na lepsze, ale rozporządzenie mogłoby znacznie skuteczniej chronić nasze prawa i wolności. Przed głosowaniem plenarnym będziemy apelować do europosłów i europosłanek o to, żeby:

1. System AI był kwalifikowany jako system wysokiego ryzyka niezależnie od tego, czy jego wykorzystanie będzie powodowało ryzyko wywołania „znaczącej szkody”.

Naszym zdaniem do tej kategorii powinny się zaliczać np. używane w miejscu pracy czy w szkole systemy, które mogą powodować szkody i naruszenia prawa, kropka. Szczególnie, że sam termin „znacząca szkoda” miałby być doprecyzowany przez Komisję Europejską dopiero za pewien czas.

Obawiamy się, że takie dodatkowe kryterium „znaczącej szkody” zostanie wykorzystane jako furtka do unikania rejestrowania systemów w tej kategorii.

2. Regulacje AI obejmowały także bezpieczeństwo publiczne.

Inaczej istnieje ryzyko, że państwa będą stosowały nieprzejrzyste i obarczone błędami systemy AI do decydowania o nas w zakresie bezpieczeństwa publicznego, kontroli granic, walki z dezinformacją czy jakiegokolwiek innego działania, które rządzący określą jako „zagrażające bezpieczeństwu narodowemu”.

3. Prawo do uzyskania wyjaśnienia decyzji podjętej z wykorzystaniem AI przysługiwało także wtedy, gdy w procesie decyzyjnym brał udział człowiek.

Obecna wersja zawęża to uprawnienie do sytuacji, kiedy decyzja jest w pełni zautomatyzowana. Wystarczy, żeby człowiek kliknął „akceptuj decyzję”, żeby nie przysługiwało.

4. Organizacje społeczne mogły reprezentować osoby, których prawa zostały naruszone.

Dzięki takiemu przepisowi organizacje społeczne takie jak Panoptykon będą mogły wnosić skargi w imieniu osób – i w ten sposób dążyć do zmiany złych praktyk.

Co dalej?

Według aktualnego kalendarza europosłowie i europosłanki pochylą się nad rozporządzeniem już w czerwcu. Następny krok to negocjacje trójstronne, w ramach których wspólny, ostateczny już tekst rozporządzenia dogadują między sobą Parlament Europejski, Rada Unii Europejskiej i Komisja Europejska.

Dzięki dzisiejszemu głosowaniu w komisjach możemy mieć nadzieję, że AI Act będzie bronił nas przed nadużyciami z wykorzystaniem sztucznej inteligencji. Nie zamierzamy jednak biernie czekać na zmasowany lobbing firm, które wolałyby, żeby AI Act chronił nas mniej. Trzymajcie kciuki (i wspierajcie nasze działania).

Filip Konopczyński
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.