Wdrożenie aktu o sztucznej inteligencji: czy polski rząd utrzyma zakazy?

Artykuł
18.11.2024
11 min. czytania
Tekst
Image
Grafika ilustrująca biometryczne rozpoznawanie twarzy

Polska wdraża unijny akt o sztucznej inteligencji. Rząd nie skorzystał z możliwości przyznania służbom prawa do stosowania technologii rozpoznawania twarzy. Zmian wymaga jednak koncepcja działania Komisji ds. Rozwoju i Bezpieczeństwa AI.

Akt o sztucznej inteligencji zakazuje stosowania wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw. Jednocześnie pozostawia państwom członkowskim szeroko otwartą furtkę do wprowadzania wyjątków od tej zasady. Polska (na razie?) nie skorzystała z tej możliwości.

15 listopada 2024 r. zakończyły się konsultacje publiczne projektu ustawy o systemach sztucznej inteligencji. Projekt jest elementem wdrażania do polskiego porządku prawnego przyjętego wiosną unijnego rozporządzenia o sztucznej inteligencji (AI Act). Za wdrożenie odpowiada Ministerstwo Cyfryzacji, do którego przesłaliśmy naszą opinię do projektu (do pobrania pod tekstem). Co się w niej znalazło?

Bez wyjątków dla rozpoznawania twarzy w czasie rzeczywistym. Czy uda się to utrzymać?

Przede wszystkim, cieszymy się w niej z tego, że Ministerstwo Cyfryzacji nie wprowadziło wyjątków od przewidzianego w rozporządzeniu zakazu „wykorzystywania systemów zdalnej identyfikacji biometrycznej”, czyli np. systemów rozpoznawania twarzy w czasie rzeczywistym. AI Act dopuszcza wprowadzenie takich wyjątków, ale precyzyjnie wskazuje, jakie muszą one spełniać wymogi (np. uprzednia zgoda sądu lub innego organu). Skoro w projekcie przygotowanym przez Ministerstwo Cyfryzacji nie wskazano warunków korzystania z „systemów zakazanych”, to są one wciąż zakazane i np. policja nie będzie mogła ich używać.

Niestety sprawa komplikuje się w kontekście służb specjalnych. Przepisów unijnego rozporządzenia nie stosuje się do systemów AI stosowanych do celów „wojskowych, obronnych lub do celów bezpieczeństwa narodowego”. Ministerstwo podjęło próbę zdefiniowania najbardziej enigmatycznego z tych pojęć – bezpieczeństwa narodowego. Wskazało, że chodzi o „bezpieczeństwo wewnętrzne państwa i jego porządek konstytucyjny”.

To oznacza, że służby specjalne nie będą objęte zakazami wynikającymi z AI Actu tylko wtedy, gdy prowadzić będą działania w jednym z wymienionych celów. Co to znaczy w praktyce? Jeśli ABW będzie podejrzewała, że ktoś planuje zamach stanu, będzie mogła skorzystać z takiego systemu bez ograniczeń wynikających z jakiejkolwiek regulacji. W przypadku innych działań, kiedy Agencja Bezpieczeństwa Wewnętrznego np. ściga nielegalne posiadanie broni, a CBA – przeciwdziała korupcji w sporcie – służby te będą musiały przestrzegać AI Actu. Wobec braku wyjątków od wprowadzonych tam zakazów – działając w tych celach – nie będą mogły stosować rozpoznawania twarzy w przestrzeni publicznej w czasie rzeczywistym.

„(…) na etapie prac legislacyjnych nad rozporządzeniem w sprawie sztucznej inteligencji, pełny zakaz wykorzystywania systemów zdalnej identyfikacji biometrycznej – jako naruszających istotę prawa do prywatności – rekomendowały, obok organizacji społecznych, wiodące organy ochrony danych osobowych i praw człowieka: Europejski Inspektor Ochrony Danych i Wysoki Komisarz ONZ ds. Praw Człowieka (...). Zdecydowanie popieramy próbę doprecyzowania i jednoznacznego ograniczenia znaczenia pojęcia bezpieczeństwo narodowe, a tym samym – jasne określenie, zastosowanie w jakich celach systemów AI podlega regulacji”.

Fragment opinii Fundacji Panoptykon do projektu ustawy o systemach sztucznej inteligencji

Wygląda na to, że projekt albo zakazuje stosowania rozpoznawania twarzy w czasie rzeczywistym (większość przypadków), albo pozostawia zupełnie nieuregulowanym stosowanie tej technologii w niektórych sytuacjach. Dobrze, że te sytuacje postarano się doprecyzować. Ale wciąż będą zdarzały się takie, w których stosowanie takich systemów będzie możliwe.

Problem niesłusznie aresztowanych

To naszym zdaniem problem, bo trzeba pamiętać, że żeby taki system działał, musi sprawdzać WSZYSTKICH, którzy znajdą się w jego zasięgu, a nie tylko osoby podejrzane. To tak jakby ktoś legitymował każdą osobę przechodzącą w danym miejscu i sprawdzał jej dane w bazie.

Nie zapominajmy też, że mamy do czynienia z AI, której działanie, jak wiadomo, obarczone jest błędami. Jeśli system błędnie zidentyfikuje przypadkowego przechodnia jako poszukiwanego terrorystę, ta osoba trafi do aresztu i skutki mogą być nieodwracalne. W USA, gdzie takie systemy są wykorzystywane, media pełne są doniesień o osobach niesłusznie aresztowanych (a przy aresztowaniu nieodwracalnie uszkodzonych przez funkcjonariuszy). Należy też pamiętać, że takie systemy mylą się nierówno – gorzej mają osoby, które nie są białym mężczyzną.

Nie mamy złudzeń, że propozycja Ministerstwa Cyfryzacji spotka się z powszechną akceptacją. Naszym zdaniem ministerstwo powinno zaproponować rozwiązania także dla AI nie objętych rozporządzeniem o sztucznej inteligencji. Uniknie dzięki temu „dziury legislacyjnej”, w której ABW czy inna służba nie jest w żaden sposób ograniczona. Z drugiej strony, resorty siłowe pewnie nie pogodzą się z utrzymaniem zakazu stosowania technologii rozpoznawania twarzy w celu ścigania „zwykłej” przestępczości. Spodziewamy się więc gorącej dyskusji nad ustawą wdrożeniową. Mamy jednak nadzieję, że rząd przychyli się do argumentów dotyczących groźnych konsekwencji dla wolności i praw człowieka, które niosłoby rozpowszechnienie takich systemów.

Pomysł na Komisję ds. Rozwoju i Bezpieczeństwa – do poprawki

Projekt ustawy reguluje skład i działanie Komisji ds. Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Jej rolą będzie nadzór nad rynkiem sztucznej inteligencji, ale też rozpatrywanie skarg składanych przez osoby pokrzywdzone działaniem sztucznej inteligencji.

Naszą uwagę zwróciło to, że w składzie komisji ma być przedstawiciel ministra-koordynatora służb specjalnych (który może dążyć do rozszerzania w praktyce wyjątków dla służb), natomiast brakuje przedstawiciela Ministra Spraw Wewnętrznych i Administracji (czyli operatora największej publicznej bazy danych w Polsce – bazy PESEL).

Uważamy również, że konieczna jest większa przejrzystość wyborów przewodniczącego Komisji. Np. w przesłuchaniach kandydatów powinni mieć prawo wziąć udział przedstawiciele organizacji społecznych; postulujemy też organizację wysłuchania publicznego. To pozwoliłoby na wybranie najbardziej kompetentnej osoby na to stanowisko i zwiększyłoby zaufanie do tego ciała.

Osoby zasiadające w Komisji będą sprawdzane pod kątem ich ewentualnych powiązań z biznesem. Postulujemy, żeby rozwadze poddano również sytuację, w której Komisja składająca się m.in. z przedstawicieli różnych urzędów kontroluje… właśnie te urzędy.

„Zdecydowanie popieramy wprowadzone w art. 24 projektu ustawy rozwiązania dotyczące konfliktu interesów jako niezbędne do zagwarantowania bezstronnego działania Komisji. Uważamy jednak, że doprecyzowania wymagają reguły rozstrzygania konfliktu interesów w sytuacji, gdy system sztucznej inteligencji będący przedmiotem kontroli Komisji rozwijałaby lub wdrażała jedna z instytucji wymienionych w art. 7 ust. 2, której przedstawiciel jest członkiem Komisji”.

Fragment opinii Fundacji Panoptykon do projektu ustawy o systemach sztucznej inteligencji

Przy Komisji ma działać Społeczna Rada do spraw Sztucznej Inteligencji. Podobnie jak Rada ds. Cyfryzacji, będzie to ciało doradcze, ale jego uprawnienia będą nieco szersze. Będzie mogło na przykład wydawać opinie w sprawie systemów. Dlatego to ważne, żeby w jej składzie znalazły się osoby reprezentujące różne grupy – w tym takie, które będą umiały wskazać zagrożenia związane z wykorzystaniem AI.

Projekt zakłada, że kandydatki i kandydatów do rady będą mogły zgłaszać „fundacje i stowarzyszenia zajmujące się rozwojem AI”. Postulujemy, żeby rozszerzyć to grono na organizacje zajmujące się ochroną praw człowieka – żeby w radzie były reprezentowane różne perspektywy na AI.

W projekcie nie przewidziano wynagrodzenia dla członkiń i członków rady, ani nawet zwrotu kosztów podróży. To nie jest problemem dla warszawiaków i przedstawicieli biznesu, ale już dla osób dojeżdżających i reprezentujących inne sektory – tak.

„Konieczność przeznaczenia własnych środków na dojazdy i czas poświęcony na udział w pracach Rady stawia w uprzywilejowanej pozycji przedstawicieli izb gospodarczych i organizacji branżowych, którzy zazwyczaj dysponują większymi zasobami niż np. organizacje społeczne. Dodatkowo, mogą oni być bardziej skłonni do angażowania zasobów na prace w Radzie, ponieważ udział w formułowaniu jej opinii może wspierać interesy biznesowe ich członków”.

Fragment opinii Fundacji Panoptykon do projektu ustawy o systemach sztucznej inteligencji

Skarga pozostanie bez odpowiedzi?

W naszej opinii podnieśliśmy też kwestię praw osób składających skargi do Komisji. Taką skargę może złożyć każdy, ale zgodnie z projektem ustawy, osoba ta nie będzie stroną postępowania (nie dowie się więc o jej wyniku). Rozumiemy, że to rozwiązanie to oszczędność czasu i pieniędzy, ale postulujemy, żeby komisja była zobowiązana co najmniej do informowania osoby skarżącej o rezultacie skargi.

„Zakładamy, że takie rozwiązanie zostało wprowadzone w celu uniknięcia ryzyka wydłużenia postępowania oraz utrzymania modelu regulacyjnego rozporządzenia w sprawie sztucznej inteligencji, inspirowanego przepisami o nadzorze rynku i produktów. Dostrzegamy jednak problem, że w obecnym kształcie projektu ustawy osoba skarżąca nie będzie miała dostępu do informacji o tym, co stało się z jej skargą, czy na jej podstawie wszczęto postępowanie, ani jakie były jego wyniki. Postulujemy zatem wprowadzenie w projekcie ustawy przynajmniej prawa do uzyskania informacji zwrotnej o wyniku postępowania oraz dostępu do uzasadnienia decyzji”.

Fragment opinii Fundacji Panoptykon do projektu ustawy o systemach sztucznej inteligencji

Czy RPO zajrzy do systemów AI?

Na osobną uwagę zasługuje temat instytucji, jakie będą miały prawo zajrzeć systemom AI „pod maskę”.

AI Act przewiduje zgłoszenie do Komisji Europejskiej wykazu organów i instytucji publicznych zajmujących się ochroną praw podstawowych, które w ramach realizowanych przez siebie zadań będą miały prawo uzyskać dostęp do dokumentacji systemów AI.

Na liście organów zgłoszonych przez polski rząd znalazły się Rzecznik Praw Dziecka, Rzecznik Praw Pacjenta i Państwowa Inspekcja Pracy. Zabrakło na niej Rzecznika Praw Obywatelskich. Dlaczego kluczowa polska instytucja, której zadaniem jej ochrona praw podstawowych (np. przed dyskryminacją) nie znalazła się na liście?

Biuro RPO ma na to argumenty: nie zajmuje się kontrolowaniem podmiotów prywatnych, a jeśli chodzi o podmioty publiczne – nie ma pieniędzy, żeby rozszerzać swoje działania.

Zaapelowaliśmy do Rzecznika, żeby zmienił zdanie w temacie kontrolowania podmiotów publicznych.

„Coraz więcej instytucji publicznych wdraża i rozwija nowoczesne technologie, w tym sztuczną inteligencję. Dla przykładu, z informacji prasowych wynika, że ZUS od początku 2024 r. wykorzystuje sztuczną inteligencję m.in. do wykrywania nieprawidłowości w wystawianych zwolnieniach lekarskich. (…) To jeden z przykładów funkcjonowania rozwiązań opartych na sztucznej inteligencji, których funkcjonowanie rodzi wyzwania z perspektywy praw i wolności obywatelskich (…).

Zdajemy sobie sprawę, że analiza ingerencji w prawa i wolności człowieka za pomocą nowych technologii wymaga specjalistycznej wiedzy, m.in. kompetencji technicznych. Jednak ograniczone zasoby nie mogą być naszym zdaniem podstawą uchylania się od możliwości efektywnego realizowania swoich konstytucyjnych i ustawowych zadań”.

Fragment apelu Fundacji Panoptykon do RPO (całość w dokumencie pod tekstem)

Mamy nadzieję, że RPO skutecznie zwróci uwagę rządzących na problem zasobów i uzyska budżet, który pozwoli mu rozwijać zespół. Tymczasem byłoby stratą, gdyby w ramach już podejmowanych spraw urzędnicy natknęli się na system, który ma w sobie AI, i nie mogli do niego zajrzeć.

***

Czekamy na podsumowanie konsultacji i kolejne etapy wdrożenia przepisów. Polski rząd ma na to czas do 2 sierpnia 2025 r.

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.