Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa

Artykuł
15.06.2023
6 min. czytania
Tekst
Image

Europosłowie nie zdecydowali się na całkowite zakazanie inwigilacji biometrycznej w przestrzeni publicznej ani na przyznanie prawa do uzyskania wyjaśnienia osobom poszkodowanym decyzją podjętą z udziałem AI, niezależnie od kategorii systemu – co postulowały organizacje społeczne. Ale są też pozytywne informacje.

Parlament Europejski przyjął akt o sztucznej inteligencji (AI Act). Postulowaliśmy, by zapewnić maksymalną ochronę obywateli i obywatelek przed największymi zagrożeniami związanymi z wykorzystywaniem systemów opartych na AI. Wiele poprawek organizacji nie zostało uwzględnionych. Na szczęście w głosowaniu utrzymała się wersja, która m.in. zakazuje predykcji kryminalnej. Nie grozi nam więc Raport mniejszości w prawdziwym życiu.

Jak AI Act nas ochroni

Przyjęta przez Parlament Europejski treść aktu wciąż zapewnia lepszą ochronę praw i wolności niż zaproponowała to pierwotnie Komisja Europejska w projekcie opublikowanym w 2021 r. Co znalazło się w wersji Parlamentu? M.in. szereg rozwiązań, o których przejęcie apelował Panoptykon i nasza europejska koalicja EDRi.

  • Zakazane najbardziej ryzykowne zastosowania AI

Systemy oparte na sztucznej inteligencji nie będą mogły być wykorzystywane do predykcji kryminalnej – czyli do oceniania, jakie jest ryzyko, że dana osoba popełni przestępstwo. Ponadto organy ścigania, służby graniczne, pracodawcy i instytucje oświatowe nie będą mogły korzystać z systemów opartych na rozpoznawaniu emocji. Zakazana będzie również biometryczna kategoryzacja osób, czyli profilowanie na podstawie cech wyglądu czy sposobu poruszania się.

  • Systemy rekomendacyjne platform internetowych (i nie tylko) na liście AI wysokiego ryzyka

Na liście systemów wysokiego ryzyka znajdą się m.in. systemy rekomendacyjne dużych platform internetowych, systemy wykorzystywane do intencjonalnego wpływania na wyborców oraz narzędzia używane przez administrację publiczną, a także organy ścigania np. do oceny stanu prawnego, dowodów czy zdarzeń. Wobec systemów wysokiego ryzyka wymogi przejrzystości i możliwości kontroli będą zdecydowanie wyższe niż wobec pozostałych systemów.

  • Zwiększenie kontroli nad systemami AI wysokiego ryzyka

Podmioty wykorzystujące takie systemy będą musiały dokonać oceny ich działania pod kątem wpływu na prawa podstawowe. Oparte na AI systemy wysokiego ryzyka stosowane przez administrację publiczną i wielkie platformy oraz systemy wykorzystywane w więcej niż jednym kraju będą rejestrowane w unijnej bazie prowadzonej przez Komisję Europejską. Pozostałe systemy wysokiego ryzyka będą rejestrowane w krajowych bazach.

Krajowe organy nadzorcze ds. AI będą natomiast mogły dokonywać niezapowiedzianych kontroli.

  • Lepsza ochrona osób dotkniętym decyzjami systemów AI

Osoby, których prawa zostaną naruszone decyzją wydaną z wykorzystaniem AI, będą mogły wnieść skargę do krajowego organu ds. AI. A także zaskarżyć decyzję (lub bezczynność) takiego organu do sądu. W przypadku systemów wysokiego ryzyka – będą mogły uzyskać szczegółowe wyjaśnienie decyzji w swojej sprawie.

Niestety prawo do wyjaśnienia decyzji podjętej z udziałem AI ograniczone będzie do działania systemów wysokiego ryzyka. Nie będzie można skorzystać z niego w przypadku pozostałych modeli i programów AI.

  • PE przeciwny inwigilacji biometrycznej na życzenie rządów

Na ostatniej prostej Europejska Partia Ludowa próbowała wprowadzić swoją poprawkę, która umożliwiałaby rządom wprowadzanie inwigilacji biometrycznej w czasie rzeczywistym. Tę niebezpieczną zmianę udało się zablokować. Nie udało się jednak przekonać europosłów i europosłanek do całkowitego zakazania stosowania takich systemów. Inwigilacja biometryczna będzie mogła być prowadzona – ale jedynie w wyjątkowych sytuacjach i za zgodą sądu.

  • Lepsza definicja AI

Definicja sztucznej inteligencji, która znalazła się w akcie, jest bardziej precyzyjna i odporna na zmiany technologiczne. „Sztuczna inteligencja” ma być używana na określenie programu komputerowego, który np. zamiast wykonywać listę dokładnych instrukcji wykorzystuje zaawansowane modele statystyczne do tego, żeby rozwiązać zadanie.

Na ostatniej prostej europarlamentarzyści i europarlamentarzystki przyjęli przepisy dedykowane tzw. modelom podstawowym (takim jak np. GPT czy Bard), które, aby móc działać w Europie, będą musiały być tworzone i działać zgodnie z naszym prawem m.in. w zakresie prywatności, zakazu dyskryminacji czy praw autorskich.

Czego brakuje jeszcze w AI Act?

Przed głosowaniem plenarnym organizacje społeczne postulowały przyjęcie innych poprawek, które wzmocniłyby ochronę ludzi przed negatywnymi konsekwencjami wykorzystania AI. Były to m.in.:

  1. Większe zaangażowanie organizacji społecznych w ochronę ludzi (apelowaliśmy o przyznanie organizacjom możliwości reprezentowania osób, które zostały pokrzywdzone decyzjami podjętymi z udziałem sztucznej inteligencji oraz prawa do występowania przeciwko systemom AI także przed tym, jak wyrządzą realne szkody).
  2. Prawo do każdorazowego wyjaśnienia decyzji podjętej przy pomocy AI (także w przypadku systemów innych niż systemy wysokiego ryzyka).
  3. Pełny zakaz inwigilacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej.
  4. Obowiązek rejestrowania wszystkich systemów wysokiego ryzyka w unijnej bazie.

Po głosowaniu w Parlamencie Europejskim do negocjacji trójstronnych przystępują Komisja Europejska, Parlament i Rada Unii Europejskiej. Dopiero w efekcie tych negocjacji poznamy ostateczną treść regulacji. Pytanie, czy instytucje zachowają wszystkie dobre rozwiązania, dopiszą kolejne, a może – co byłoby z naszego punktu widzenia najgorszym scenariuszem – zrezygnują z ochrony ludzi, pozostaje otwarte.

„Konstytucja” AI – co to jest akt o sztucznej inteligencji

Akt o sztucznej inteligencji to pierwsza na świecie kompleksowa regulacja sztucznej inteligencji. Akt reguluje obowiązki firm i instytucji tworzących (dostawcy, importerzy) oraz wdrażających (użytkownicy) systemy i modele AI. Spod działania AI Act wyjęte są obszary wojskowości, badań i nauki.

Akt przyjmuje logikę opartą na analizie ryzyka: pewne systemy AI mają być zakazane, inne traktowane jako wysokiego ryzyka i poddane specjalnym wymogom prawnym i technicznym (w tym ocenie ryzyka dla praw podstawowych ludzi). W przypadku popularnych chatbotów czy tzw. generatywnej AI wprowadza się z kolei obowiązek informowania ludzi o tym, że mają do czynienia z „produktem” wygenerowanym przez AI.

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.