Artykuł 20.08.2025 6 min. czytania Tekst Image Poznaliśmy kolejną wersję projektu ustawy wdrażającej unijny AI Act. Ministerstwo Cyfryzacji doprecyzowało, w jakim zakresie służby będą jej podlegały. Resort stoi twardo na stanowisku, że przepisy powinny obejmować działania Policji, Straży Granicznej i Służby Ochrony Państwa. Jednocześnie nowy projekt cofa się o krok, jeśli chodzi o prawa osób, które będą chciały się poskarżyć na działanie systemów.Unijne rozporządzenie w sprawie sztucznej inteligencji obowiązuje bezpośrednio we wszystkich państwach członkowskich. W czerwcu Ministerstwo Cyfryzacji opublikowało kolejną wersję projektu wdrożenia. Doprecyzowało w nim wyłączenia dla służb, które postulowaliśmy w opinii z lutego 2025 r. W aktualnej wersji wprowadzono jednak zmiany (na gorsze), jeśli chodzi o uprawnienia osób skarżących się na krzywdzącą decyzję systemu sztucznej inteligencji.Poniżej analizujemy najważniejsze z punktu widzenia praw i wolności postanowienia zawarte w projekcie ustawy wdrażającej.W jakim zakresie nowa ustawa będzie dotyczyła służbPostulowaliśmy doprecyzowanie, w jakim zakresie przepisów nie będą musiały przestrzegać służby (oczywiście, z naszej perspektywy wyłączenia powinny być jak najwęższe). Resort cyfryzacji zrealizował ten postulat.AI Act nie stosuje się do obszarów wykraczających poza zakres stosowania prawa Unii i w żadnym wypadku nie wpływa ono na kompetencje państw członkowskich w zakresie bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu, któremu państwa członkowskie powierzyły wykonywanie zadań związanych z tymi kompetencjami.Art. 2 ust. 3 AI ActTo do państw członkowskich należy decyzja, co się kryje pod pojęciem „bezpieczeństwa narodowego” i jak to się ma do systemów AI używanych przez służby. Autorzy projektu ustawy wdrażającej poszli w stronę wyłączenia wszystkich zadań realizowanych przez poszczególne służby, choć różnicują ich sytuację.I tak spod ustawy regulującej użycie AI całkowicie wyłączono Służbę Wywiadu Wojskowego i Służbę Kontrwywiadu Wojskowego, ale Agencję Bezpieczeństwa Wewnętrznego i Agencję Wywiadu – już nie. Dwie ostatnie służby będą musiały przestrzegać unijnych regulacji tam, gdzie w grę wchodzą systemy AI wysokiego ryzyka.Co to oznacza? Jeśli SKW lub SWW zdecyduje się na użycie systemu bazującego na sztucznej inteligencji, np. do przeczesywania czatów na Discordzie w poszukiwaniu treści terrorystycznych, nie będzie musiała się oglądać ani na AI Act, ani na polskie przepisy go wdrażające.W innej sytuacji pozostaną ABW i AW. Jeśli któraś z tych agencji będzie rozważała zakup i użycie oprogramowania do rozpoznawania twarzy w czasie rzeczywistym, będzie musiała zrobić to zgodnie i z AI Act, i polskimi przepisami. To dobra wiadomość, bo oznacza, że ewentualne użycie takich niezwykle inwazyjnych dla prawa i wolności systemów będzie znajdowało się pod kontrolą.Wbrew życzeniom m.in. Ministerstwa Spraw Wewnętrznych i Administracji, które nadzoruje Policję, resort cyfryzacji nie zgodził się też na całkowite wyłączenie spod przepisów Policji, Straży Granicznej ani Służby Ochrony Państwa.Co ciekawe, Ministerstwo Cyfryzacji zwraca uwagę, że wyłączenie spod przepisów uniemożliwiłoby tym instytucjom dochodzenie ewentualnych roszczeń wobec dostawców systemów AI (np. w sytuacji dostarczenia niedziałającego oprogramowania). Jeśli takie wyjaśnienie zadowoli MSWiA (które chce wyłączenia m.in. dla Policji) – to nam to pasuje.Skarżący nie dostaną informacji o losie skargiW aktualnej wersji projektu nie znaleźliśmy przepisów, które na nasz wniosek Ministerstwo Cyfryzacji uwzględniło kilka miesięcy wcześniej, w poprzedniej wersji projektu. Obecnie osoba indywidualna, która złoży do Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji skargę na działanie systemu AI, nie otrzyma informacji, co się z tą skargą dzieje.6. Przewodniczący Komisji zawiadamia skarżącego, drogą elektroniczną na adres, o którym mowa w ust. 2 pkt 4, o ile ten został wskazany przez skarżącego, o:1) otrzymaniu skargi;2) wszczęciu postępowania, o którym mowa w ust. 5;3) zakończeniu postępowania w sprawie związanej z postępowaniem, o którym mowa w ust. 5.Przepis usunięty z projektu (art. 42 w najnowszej wersji projektu ustawy)Ministerstwo uzasadnia zmianę tym, że decyzje Komisji będą publikowane w BIP-ie. Naszym zdaniem to zdecydowanie za mało. Przepisy wdrażające i tak wysoko zawieszają poprzeczkę skarżącym, wymagając na przykład, żeby skarga zawierała nazwę systemu AI (którą nie zawsze można łatwo uzyskać) lub jego opis. Teraz okazuje się, że skarżący nie dowiedzą się, czy Komisja w ogóle wszczęła postępowanie, czy może odrzuciła albo zignorowała skargę. A przecież chodzi o skargę na system, który narusza ich prawa! Zamiast być traktowani podmiotowo, zostaną sprowadzeni do roli informatorów – jeśli będą mieli rację, dowiedzą się o tym z Internetu.Zmiany w składzie komisji, która zajmie się sztuczną inteligencjąW nowym projekcie zmieniono skład Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Usunięto z niej m.in. przedstawicieli Rzecznika Praw Dziecka i Państwowej Inspekcji Pracy – czyli urzędów zajmujących się prawami jednostek. W składzie Komisji pozostali natomiast przedstawiciele: Prezesa Urzędu Ochrony Konkurencji i Konsumentów, Komisji Nadzoru Finansowego, Krajowej Rady Radiofonii i Telewizji oraz Prezesa Urzędu Komunikacji Elektronicznej.To nie musi być problem, bo Komisja ma obowiązek współpracować z podmiotami, które zajmują się ochroną praw jednostek. Zakładamy, że będą to przede wszystkim:Prezes Urzędu Ochrony Danych Osobowych (bo AI danymi stoi, w tym osobowymi);Rzecznik Praw Obywatelskich (z uwagi na potencjał dyskryminacyjny narzędzi AI);Państwowa Inspekcja Pracy (z uwagi na rosnące użycie algorytmów w zarządzaniu pracownikami czy w pracy platformowej).Dalsze losy wdrożeniaProjekt ustawy jest obecnie na etapie rządowych uzgodnień. Został skierowany do Komitetu do spraw Europejskich. Następny krok to przyjęcie projektu przez Radę Ministrów i skierowanie go do Sejmu. Do tego czasu jego treść może się jeszcze zmienić. Mamy nadzieję, że ważne z perspektywy praw i wolności osób rozwiązania (jak obowiązek przestrzegania AI Act przez Agencję Bezpieczeństwa Wewnętrznego, Policję i Straż Graniczną) utrzymają się, a także – że do projektu wrócą dobre przepisy dotyczące uprawnień osób skarżących. Anna Obem Autorka Mateusz WrotnyWspółpraca Temat sztuczna inteligencja Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Unia bierze się za sztuczną inteligencję. Rozmowa z dr. Michałem Nowakowskim W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który z jednej strony ma zwiększyć zaufanie ludzi do tej technologii, z drugiej – wspierać rozwój innowacji, a więc szanse europejskich firm w technologicznym wyścigu. W strategii sprzed dwóch lat Komisja Europejska chciała oba… 20.10.2022 Dźwięk Podcast AI Act dla zwykłego człowieka. Rozmowa z dr Gabrielą Bar W marcu 2024 r. Parlament Europejski zagłosował nad aktem o sztucznej inteligencji. Co prawda trwa jeszcze uzgadnianie wersji językowych, ale można się spodziewać, że kolejne prace i zatwierdzenie tekstu będą już tylko formalnością. 28.03.2024 Dźwięk Poradnik AI Act w działaniu 2. Siri, Alexa i inni smart asystenci Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów? 10.05.2024 Tekst