UE reguluje sztuczną inteligencję: znamy pierwsze poprawki do AI Act

Artykuł
29.04.2022
7 min. czytania
Tekst
Image
Blueprint

Poznaliśmy pierwsze propozycje poprawek do unijnego aktu o sztucznej inteligencji – pierwszego takiego prawa na świecie. Zaproponowane zmiany idą w dobrą stronę, ale nie wystarczą, żeby powstająca regulacja w przyszłości skutecznie chroniła nas przed szkodliwym wykorzystaniem AI.

Pierwsze jaskółki

Propozycja aktu o sztucznej inteligencji (AI Act), którą Komisja Europejska zaprezentowała w kwietniu 2021 r., rozczarowała. Zmiany zaproponowane w ostatnich dniach przez sprawozdawców parlamentarnych komisji ds. rynku wewnętrznego i konsumentów oraz komisji wolności obywatelskich, sprawiedliwości i spraw wewnętrznych, czyli IMCO i LIBE, są wprawdzie ostrożne, ale podnoszą standard ochrony zaproponowany pierwotnie przez Komisję.

Najważniejsze poprawki:

1. Zakaz predictive policing

Jeśli oglądaliście Raport mniejszości, możecie kojarzyć ideę zapobiegania przestępstwom, zanim jeszcze zostaną popełnione. Ma w tym pomóc zgadywanie przyszłych zachowań ludzi. Przykładem systemu prewencji kryminalnej był chociażby amerykański COMPAS, który przewidywał ryzyko recydywy. Problem w tym, że takie systemy są karmione historycznymi danymi, a przez to obarczone systemowymi uprzedzeniami, np. wobec osób o kolorze skóry innym niż biały, wobec kobiet i osób młodych. Błędy mają fatalne skutki dla tych, których dotyczą (pisaliśmy o tym w naszym przewodniku Sztuczna inteligencja non-fiction). Dlatego cieszy nas dodanie systemów szacujących ryzyko popełnienia przestępstwa przez konkretną osobę do listy zakazanych zastosowań AI.

2. Prawo do skargi

Prawo do reklamacji i odwołania jest czymś oczywistym w relacjach firma–konsument i państwo–obywatel. Również osoby poddane działaniu systemu wykorzystującego sztuczną inteligencję będą mogły wnieść skargę, jeśli system naruszy ich prawa. To rewolucyjna zmiana, bo Komisja Europejska w ogóle nie umieściła takiego mechanizmu w swoim projekcie.

3. Uwaga, tu sztuczna inteligencja

Europosłowie sprawozdawcy zaproponowali dopisanie do AI Act obowiązku informowania ludzi, że są poddani działaniu systemu wysokiego ryzyka.

Problem w tym, że do tej kategorii będą się kwalifikowały tylko nieliczne, najbardziej ryzykowne systemy. Według obecnej definicji nie zaliczają się do niej chociażby takie zastosowania AI, które profilują i oceniają ludzi w celach komercyjnych, np. personalizują ceny, sugerują suplementy czy przewidują dni płodne. A również w takich przypadkach informacja o tym, że spersonalizowana rekomendacja jest wynikiem działania algorytmu, byłaby wartościowa.

Na przykład: jeśli nie chcesz zajść w ciążę i korzystasz w tym celu z aplikacji opartej na AI, podstawowe informacje o założeniach algorytmu (na bazie jakich parametrów przewiduje możliwość zajścia w ciążę albo czy na wszelki wypadek więcej dni wskaże jako płodne, a może na odwrót – dni graniczne zaznaczy jako niepłodne) mogą pomóc w dokonywaniu wyborów i wyłapywaniu pomyłek.

4. Sztuczna inteligencja trafi do rejestru

Zaproponowane poprawki do AI Act przewidują, że informacje o konkretnych sytuacjach, w jakich wdrażane są systemy wysokiego ryzyka, będą jawne – przynajmniej w przypadku instytucji publicznych. To lepiej niż w wersji Komisji, według której obowiązek rejestrowania systemów leżał tylko po stronie deweloperów i obejmował wyłącznie odnotowanie faktu, że jakiś system jest dostępny na rynku, a nie – jak byśmy tego chcieli – że jest wdrażany w praktyce, przez kogo i w jakim celu.

Jak jeszcze można wzmocnić ochronę praw człowieka w AI Act?

To wszystko dobre poprawki. Jednak żeby skutecznie chronić prawa człowieka, europosłowie muszą jeszcze je wzmocnić poprzez:

1. Silniejsze mechanizmy ochronne przed najbardziej szkodliwym wykorzystaniem AI

Postulujemy m.in. całkowity zakaz stosowania:

  • systemów biometrycznej inwigilacji (także wykorzystania jej po fakcie i przez podmioty prywatne);
  • systemów predictive policing (w tym „przewidywania”, w której okolicy jest większe ryzyko popełnienia przestępstwa i wysyłania tam na tej podstawie patroli policji – nie trzeba sięgać po przykłady z amerykańskich miast czy przedmieść Paryża, żeby przewidzieć (sic!), że takie systemy tylko umacniają systemowe nierówności);
  • systemów do rozpoznawania emocji i kategoryzacji biometrycznej (lub przynajmniej umieszczenie ich w kategorii wysokiego ryzyka – takie systemy są oparte na pseudonauce, a zatem nawet jeśli będą legalne, powinny przynajmniej być pod uważną obserwacją);
  • zakaz wykorzystania AI do oceny ryzyka w obszarze migracji (ocena ryzyka w ogóle nie jest mocną stroną AI, a tak wrażliwa sfera powinna być wolna od uprzedzeń i automatyzacji).

2. Wzmocnienie mechanizmów kontrolnych nad podmiotami wdrażającymi AI – a nie tylko tymi, którzy je tworzą

Obecny kształt AI Act można porównać do sytuacji, w której istnieje nadzór nad produkcją w fabryce młotków, ale prawo nie przewiduje, że wyprodukowany zgodnie ze standardami młotek może zostać wykorzystany do zrobienia komuś krzywdy.

Kontrola nad wdrażającymi AI mogłaby obejmować m.in. następujące obowiązki:

  • przeprowadzenia analizy wpływu systemu na prawa człowieka (przynajmniej w przypadku instytucji publicznych wdrażających taki system);
  • rejestrowania systemów wysokiego ryzyka wykorzystywanych przez podmioty prywatne (o tym wyżej);
  • publikowania w unijnej bazie informacji o założeniach danego systemu, o tym, jakie ustępstwa poczyniono przy jego projektowaniu oraz co system optymalizuje, a także wyników analizy ryzyka;
  • obowiązek przejrzystości dla systemów, które nie są systemami wysokiego ryzyka, ale mają wymierny wpływ na ludzi (A jakie nie mają? Personalizacja usług, rekomendacja treści, ceny… Trudno wskazać system AI, który nie ma wpływu na człowieka).

Taka przejrzystość sprzyjałaby społecznej kontroli nad potencjalnie najbardziej szkodliwymi zastosowaniami AI.

3. Lepsze uprawienia dla organizacji społecznych i ludzi poddanych działaniu AI

Rekomendujemy uzupełnienie AI Act o:

  • uprawnienia dla organizacji społecznych, takich jak Panoptykon, do reprezentowania ludzi, których prawa zostały naruszone (jak np. w RODO, które umożliwia organizacjom wnoszenie skarg w imieniu osób, które niekoniecznie dysponują wiedzą i zasobami na prowadzenie postępowania);
  • stworzenie ścieżki do zgłaszania naruszających prawo systemów (także jeśli nie można wskazać konkretnej osoby, która ucierpiała w wyniku ich działania – podobnie jak w przypadku mowy nienawiści, która jest karalna, nawet jeśli nie dotyka konkretnej, wskazanej z imienia i nazwiska osoby);
  • prawo do wyjaśnienia decyzji podejmowanych z wykorzystaniem AI, niezależnie od tego, czy decyzje były w pełni zautomatyzowane, czy w ich wydawaniu brał udział człowiek (podobnie jak w przypadku prawa bankowego, które daje klientom możliwość wnioskowania o wyjaśnienie, na podstawie jakich danych została wyliczona ich zdolność kredytowa).

Członkowie komisji LIBE i IMCO mają czas na zgłaszanie kolejnych poprawek do 18 maja. Po wakacjach odbędą się głosowania: najpierw w komisjach, następnie plenarne w Parlamencie Europejskim. Czy uda się przekonać europosłów do lepszego zadbania o prawa człowieka w związku ze szkodliwym potencjałem tej gwałtownie rozwijającej się technologii?

Joint Statement on EP AI Act draft Report [PDF]

Karolina Iwańska, Anna Obem

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.