Artykuł 01.12.2021 7 min. czytania Tekst Image Zamiast realnego zewnętrznego nadzoru nad potencjalnie szkodliwym wykorzystaniem sztucznej inteligencji i narzędzi przejrzystości i kontroli dla ludzi poddanych ich działaniu checklista „do odhaczenia” – to najpoważniejsze zarzuty wobec zaprezentowanego w kwietniu przez Komisję Europejską projektu przepisów mających uregulować tę sferę technologiczną. Organizacje społeczne domagają się zmian w akcie o sztucznej inteligencji (AI Act), – które faktycznie postawią ludzi i ich prawa w centrum. Pod wspólnym stanowiskiem, które stworzyliśmy z naszą europejską siecią European Digital Rights, podpisało się 115 organizacji z całej Unii Europejskiej. Wśród organizacji są te z sieci European Digital Rights, które podobnie jak Panoptykon zajmują się cyfrowym nadzorem, ale też wspierające osoby narażone na wykluczenie (np. European Disability Forum i European Network Against Racism) i ochroną praw człowieka w różnych sferach (np. Helsińska Fundacja Praw Człowieka). Wspólnie domagamy się tego, by unijne prawo o AI gwarantowało wysoki standard ochrony praw podstawowych – taki zresztą deklaruje Komisja Europejska. Nasze wspólne stanowisko trafiło do decydentów z Parlamentu Europejskiego i państw członkowskich (w tym Polski). W nadchodzących miesiącach będziemy walczyć o 9 kluczowych postulatów. Oto nasze najważniejsze z nich: 1. Elastyczne i odporne na przyszłe wyzwania podejście do ryzykownych zastosowań sztucznej inteligencji Jeśli rozporządzenie o AI ma służyć nam dłużej niż tylko przez następne kilka lat, powinno przewidywać elastyczny mechanizm reagowania na wyzwania związane z rozwojem technologii. W obecnym kształcie projekt zawiera sztywną listę systemów zakazanych, systemów wysokiego ryzyka i tzw. systemów rodzących ryzyko manipulacji (np. boty). Domagamy się wprowadzenia możliwości aktualizowania listy tych systemów w oparciu o przejrzyste kryteria, bez konieczności otwierania długotrwałego procesu legislacyjnego. Postulujemy także stworzenie nowej kategorii systemów „ograniczonego ryzyka”, która obejmie rozwiązania wykorzystujące sztuczną inteligencję, które – choć nie zostały uznane za „AI wysokiego ryzyka” – wpływają na nasze życie i powinny być poddane chociażby minimalnym wymogom przejrzystości. W przeciwnym razie poza jakąkolwiek kontrolą pozostaną takie rozwiązania jak algorytmy służące do personalizacji cen (np. wykorzystywane przez Amazon czy Ubera) czy aplikacje zdrowotne (np. służące do samodiagnozy czy określania ryzyka zachorowania na daną chorobę). 2. Prawdziwe, a nie prowizoryczne granice dla zbyt ryzykownych zastosowań AI Sukcesem Panoptykonu i sieci EDRi było przekonanie Komisji, żeby w ogóle rozważyła zakazanie takich zastosowań AI, które niosą zbyt wysokie ryzyko naruszenia praw podstawowych. Niestety, zaproponowane przez nią ograniczenia są zdecydowanie zbyt wąskie. Komisja chce np. zakazać systemów, które wykorzystują słabości ludzi po to, żeby na nich wpływać, ale tylko wtedy, gdy te słabości wiążą się z wiekiem albo niepełnosprawnością. Pojawił się też zakaz biometrycznej inwigilacji, ale tylko tej wykonywanej w czasie rzeczywistym przez organy państwowe (a już rozpoznawanie twarzy na podstawie zdjęć przez prywatną firmę nie znalazło się na liście zakazów). Co więcej, nawet w tym przypadku będziemy mieć do czynienia z długą listą wyjątków, które w praktyce pozwolą na tworzenie infrastruktury do masowej biometrycznej inwigilacji, co podważa sens zakazu. Poza ulepszeniem istniejących zakazów, domagamy się też wciągnięcia na listę zakazanych zastosowań AI w celu: rozpoznawania emocji, szacowania ryzyka popełnienia przestępstwa (problemy związane z wykorzystaniem AI do takiego celu pokazał m.in. słynny amerykański COMPAS) czy rozpatrywania wniosków o azyl lub wizę. 3. Obowiązki dla wdrażających systemy AI, a nie tylko dla deweloperów O ile sam system może być neutralny, kontekst, w jakim zostanie wykorzystany, może spowodować pojawienie się negatywnych konsekwencji. Na przykład, jeśli system rozpoznawania twarzy pomaga sprawdzić, w jakich okularach będziemy dobrze wyglądać, powoduje to nieporównywalnie mniejsze ryzyko niż kiedy ten sam system zastosuje policja na demonstracji czy straż graniczna na lotnisku. Tymczasem Komisja zaproponowała nałożenie obowiązku przeprowadzenia oceny ryzyka naruszenia praw człowieka tylko na deweloperów (producentów systemów). Ale już nie na podmioty wdrażające te systemy do realizowania konkretnego zadania. Abyśmy mogli poddać AI realnej społecznej kontroli, to przede wszystkim podmioty wdrażające systemy AI w konkretnych celach powinny mieć obowiązek przeprowadzenia oceny, jaki wpływ to konkretne zastosowanie systemu będzie miało na prawa człowieka. Powinny też mieć obowiązek opublikowania wyników tej analizy. 4. Przejrzystość jako warunek skutecznej kontroli nad AI Akt o AI przewiduje powstanie publicznie dostępnego unijnego rejestru systemów AI wysokiego ryzyka. Daje to nadzieję na zwiększenie społecznej kontroli nad najbardziej kontrowersyjnymi rozwiązaniami. Jednak obowiązek rejestracji w bazie ma spoczywać wyłącznie na dostawcach AI, którzy wprowadzają swój system na unijny rynek – a na podmiotach, które to rozwiązanie zastosują w konkretnym celu i wobec konkretnych grup osób już nie. Weźmy za przykład wielokrotnie opisywany na naszej stronie system profilowania bezrobotnych: w obecnym kształcie rozporządzenie nie pozwoliłoby nam w ogóle dowiedzieć się, że urzędy pracy takie rozwiązanie stosują, nie mówiąc o tym jak wpływa ono na prawa osób szukających pracy. Propozycja Komisji z niejasnych względów jest też pełna luk, jeśli chodzi o informowanie ludzi, że wchodzą w interakcję ze sztuczną inteligencją albo AI uczestniczy w podejmowaniu decyzji na ich temat. W propozycji Komisji taki obowiązek powstanie w kilku wąsko określonych przypadkach: gdy mamy do czynienia z botem, systemem rozpoznającym emocje albo deep fejkami. Czyli zdaniem Komisji ludzie powinni wiedzieć, że bot Max z Orange wykorzystuje sztuczną inteligencję, ale nie muszą wiedzieć, że AI zastosowano do oceny ich CV czy podania na studia. Naszym zdaniem jednak minimalna przejrzystość jest niezbędna, żeby osoby poddane działaniu dyskryminującego systemu czy dotknięte decyzją wydaną z jego udziałem mogły domagać się swoich praw. 5. Prawa dla osób poddanych działaniu AI Jak na prawo, które ma reprezentować „ukierunkowane na człowieka” podejście do AI, „człowieka” jest w nim niewiele. W propozycji Komisji rozporządzenie zasadniczo reguluje relacje między producentami systemów AI a ich klientami, (którymi są zazwyczaj inne firmy lub instytucje publiczne) oraz organami sprawującymi nadzór nad unijnym rynkiem. Komisja w ogóle nie przewiduje uprawnień dla ludzi czy organizacji działających w ich imieniu. Nie ma w nim ani możliwości zakwestionowania decyzji wydanej przy pomocy dyskryminującego systemu, ani zażądania wyjaśnienia, co zadecydowało o takim, a nie innym rozstrzygnięciu, ani możliwości zgłoszenia organowi nadzorczemu, że na rynku funkcjonuje system, który powinien być zakazany. Bez tych narzędzi podważenie systemów naruszających prawa podstawowe, dyskryminujących lub opartych na uprzedzeniach będzie nieskuteczne. Domagamy się, by w akcie o AI pojawiły się dwa uprawnienia dla osób poddanych działaniu AI: prawo do niepodlegania systemom, które wiążą się z nieakceptowalnym ryzykiem albo nie spełniają wymogów prawnych oraz prawo do wyjaśnienia decyzji podjętych z udziałem systemów wysokiego ryzyka. To drugie uzupełniałoby prawo do wyjaśnienia z art. 22 RODO, z którego można skorzystać tylko wtedy, gdy decyzja jest podejmowana bez udziału człowieka. Osoby poddane działaniu AI i organizacje działające na ich rzecz powinny też mieć możliwość złożenia skargi na naruszający prawa podstawowe system do organu nadzorczego. *** Przed nami miesiące pracy rzeczniczej: przygotowywanie poprawek, koordynacja z innymi organizacjami i przekonywanie rządu oraz posłów i posłanek z Parlamentu Europejskiego do naszych postulatów. Poza trzymaniem kciuków (o co zawsze prosimy!), możecie nas też wesprzeć darowizną. Dziękujemy! Pełna treść stanowiska: An EU Artificial Intelligence Act for Fundamental Rights. A Civil Society Statement [PDF] Karolina Iwańska Autorka Dominika Chachuła, Anna ObemWspółpraca Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Lekcja o tym, jak nie być słyszanym – spotkajmy się (wirtualnie) na Unsound Festival Technologia audio minionych generacji transmitowała, nagrywała lub przetwarzała dźwięk. W ostatnim czasie, mamy już do czynienia z inteligentnymi asystentami osobistymi, inteligentnymi głośnikami oraz innymi narzędziami, które przetwarzają sygnały oraz reagują na nie w czasie rzeczywistym. Wszyscy… 25.09.2020 Tekst Podcast Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Czy sztuczna inteligencja wybawi nas od koronawirusa? Z jakimi zadaniami radzi sobie dobrze, a do czego nie powinno się jej stosować? Czy naprawdę nie da się zrozumieć, jak działa? Jakie decyzje muszą podjąć projektanci algorytmów? Zapraszamy na rozmowę z Agatą Foryciarz, doktorantką na… 02.07.2020 Dźwięk Artykuł LaMDA – wiele hałasu o nic? W kwietniu 2022 r. zatrudniony w Google inżynier Blake Lemoine w wewnętrznym 22.11.2022 Tekst