Artykuł 13.12.2022 4 min. czytania Tekst Image W poprzednim tygodniu Rada Unii Europejskiej przyjęła kolejną wersję aktu o sztucznej inteligencji. Rozwój programów opartych na autonomicznych algorytmach, zastosowanie ich w medycynie, finansach czy motoryzacji wymusza taką regulację. Pierwsze poprawki przyjęte Pierwszą wersję aktu o sztucznej inteligencji Komisja Europejska zaprezentowała w kwietniu 2021 r. Rok później poprawki (o których pisaliśmy na naszej stronie) zaproponowali sprawozdawcy parlamentarnych komisji ds. rynku wewnętrznego i konsumentów (IMCO) oraz wolności obywatelskich, sprawiedliwości i spraw wewnętrznych (LIBE). W kolejnym kroku Rada UE wypracowała konsensus w sprawie definicji sztucznej inteligencji i klasyfikacji systemów według stopnia ryzyka. Projekt uzupełniono też o propozycję regulacji tzw. generatywnej sztucznej inteligencji (general purpose AI – to na niej opierają się czaty i generatory obrazów). Dobrą informacją jest także to, że Rada rozszerzyła ograniczenia stosowania tzw. systemów kredytu społecznego na prywatne podmioty, a nie wyłącznie instytucje publiczne. Systemy te służą do oceny wiarygodności społecznej czy sytuacji ekonomicznej ludzi. Rozpoznawanie twarzy wciąż dozwolone Rada Unii Europejskiej i Parlament Europejski nie mają wciąż wspólnego stanowiska w kluczowej dla praw obywatelskich kwestii: dopuszczalności stosowania zdalnego biometrycznego rozpoznawania twarzy. Oczekujemy, że Parlament Europejski (w ramach prac w komisjach) przyjmie poprawki, które doprowadzą do zakazania tej praktyki w jak najszerszym zakresie. Regulacja nie ochroni nas też przed negatywnymi konsekwencjami zastosowania sztucznej inteligencji także w celach: obronności, badawczych i naukowych, zwalczania przestępczości, kontroli granic. To ogromna sfera wykorzystania AI, a co za tym idzie – dużo potencjalnych zagrożeń. Trwają też jeszcze dyskusje na temat zasad działania nowego organu, który będzie nadzorował, czy prawo w zakresie sztucznej inteligencji jest przestrzegane. Do rozstrzygnięcia pozostają przede wszystkim jego uprawnienia, ale też techniczne szczegóły dotyczące składu czy nazwy. Postulaty NGO: ochrona człowieka, audytowanie technologii Panoptykon jest głęboko zaangażowany w proces tworzenia tego prawa – zarówno na poziomie polskim, jak i europejskim. Przypominamy, że wraz z innymi europejskimi organizacjami zrzeszonymi w EDRi już w kwietniu rekomendowaliśmy uzupełnienie AI Act m.in. o konkretne rozwiązania chroniące człowieka. Chcemy, żeby: ludzie mogli zgłosić skargę, jeśli system narusza ich prawa; ludzie mieli prawo do otrzymania wyjaśnienia istotnych decyzji, które podejmowane są w wykorzystaniem AI (nawet jeśli w procesie brał udział człowiek); organizacje społeczne, takie jak Panoptykon, mogły reprezentować osoby, których prawa zostaną naruszone; wszystkie podmioty miały obowiązek przeprowadzania analizy wpływu AI na prawa człowieka (zarówno prywatne, jak i publiczne, także te zajmujące się ściganiem przestępczości); ludzie byli informowani, że mają do czynienia z AI – zwłaszcza jeśli to zetknięcie niesie za sobą wysokie ryzyko, że ich prawa zostaną naruszone. AI Act ma powstać do końca 2023 Co dalej? Po nowym roku planowane są dalsze prace nad poprawkami w komisjach Europarlamentu. Następny krok to głosowanie na posiedzeniu plenarnym, zaplanowane na luty bądź marzec. Tylko do tego momentu możemy liczyć na uwzględnienie postulatów wzmacniających ochronę praw obywatelskich. Następnie Parlament, Rada i Komisja uzgodnią ostateczne brzmienie dokumentu. Ma to nastąpić do końca 2023 r. Więcej na temat AI ACT i stanowisk Panoptykonu: Raport: Sztuczna inteligencja pod kontrolą UE reguluje sztuczną inteligencję: znamy pierwsze poprawki do AI Act O co walczymy w unijnej regulacji AI? 5 postulatów Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Filip Konopczyński Autor Anna Obem, Dominika ChachułaWspółpraca Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Wdrożenie aktu o sztucznej inteligencji. Czy polski rząd utrzyma zakazy? Polska wdraża unijny akt o sztucznej inteligencji. Rząd nie skorzystał z możliwości przyznania służbom prawa do stosowania technologii rozpoznawania twarzy. Zmian wymaga jednak koncepcja działania Komisji ds. Rozwoju i Bezpieczeństwa AI. 18.11.2024 Tekst Artykuł Lekcja o tym, jak nie być słyszanym – spotkajmy się (wirtualnie) na Unsound Festival Technologia audio minionych generacji transmitowała, nagrywała lub przetwarzała dźwięk. W ostatnim czasie, mamy już do czynienia z inteligentnymi asystentami osobistymi, inteligentnymi głośnikami oraz innymi narzędziami, które przetwarzają sygnały oraz reagują na nie w czasie rzeczywistym. Wszyscy… 25.09.2020 Tekst Poradnik AI Act w działaniu: co się stanie z deepfake’ami? Sprawa studentki, której twarz została wykorzystana do stworzenia pornograficznego deepfake’a, stała się na tyle głośna, że powstał o niej film Another Body. Czy AI Act sprawi, że nikt więcej nie zostanie skrzywdzony deepfakiem? 25.04.2024 Tekst