Artykuł 13.12.2022 4 min. czytania Tekst Image W poprzednim tygodniu Rada Unii Europejskiej przyjęła kolejną wersję aktu o sztucznej inteligencji. Rozwój programów opartych na autonomicznych algorytmach, zastosowanie ich w medycynie, finansach czy motoryzacji wymusza taką regulację. Pierwsze poprawki przyjęte Pierwszą wersję aktu o sztucznej inteligencji Komisja Europejska zaprezentowała w kwietniu 2021 r. Rok później poprawki (o których pisaliśmy na naszej stronie) zaproponowali sprawozdawcy parlamentarnych komisji ds. rynku wewnętrznego i konsumentów (IMCO) oraz wolności obywatelskich, sprawiedliwości i spraw wewnętrznych (LIBE). W kolejnym kroku Rada UE wypracowała konsensus w sprawie definicji sztucznej inteligencji i klasyfikacji systemów według stopnia ryzyka. Projekt uzupełniono też o propozycję regulacji tzw. generatywnej sztucznej inteligencji (general purpose AI – to na niej opierają się czaty i generatory obrazów). Dobrą informacją jest także to, że Rada rozszerzyła ograniczenia stosowania tzw. systemów kredytu społecznego na prywatne podmioty, a nie wyłącznie instytucje publiczne. Systemy te służą do oceny wiarygodności społecznej czy sytuacji ekonomicznej ludzi. Rozpoznawanie twarzy wciąż dozwolone Rada Unii Europejskiej i Parlament Europejski nie mają wciąż wspólnego stanowiska w kluczowej dla praw obywatelskich kwestii: dopuszczalności stosowania zdalnego biometrycznego rozpoznawania twarzy. Oczekujemy, że Parlament Europejski (w ramach prac w komisjach) przyjmie poprawki, które doprowadzą do zakazania tej praktyki w jak najszerszym zakresie. Regulacja nie ochroni nas też przed negatywnymi konsekwencjami zastosowania sztucznej inteligencji także w celach: obronności, badawczych i naukowych, zwalczania przestępczości, kontroli granic. To ogromna sfera wykorzystania AI, a co za tym idzie – dużo potencjalnych zagrożeń. Trwają też jeszcze dyskusje na temat zasad działania nowego organu, który będzie nadzorował, czy prawo w zakresie sztucznej inteligencji jest przestrzegane. Do rozstrzygnięcia pozostają przede wszystkim jego uprawnienia, ale też techniczne szczegóły dotyczące składu czy nazwy. Postulaty NGO: ochrona człowieka, audytowanie technologii Panoptykon jest głęboko zaangażowany w proces tworzenia tego prawa – zarówno na poziomie polskim, jak i europejskim. Przypominamy, że wraz z innymi europejskimi organizacjami zrzeszonymi w EDRi już w kwietniu rekomendowaliśmy uzupełnienie AI Act m.in. o konkretne rozwiązania chroniące człowieka. Chcemy, żeby: ludzie mogli zgłosić skargę, jeśli system narusza ich prawa; ludzie mieli prawo do otrzymania wyjaśnienia istotnych decyzji, które podejmowane są w wykorzystaniem AI (nawet jeśli w procesie brał udział człowiek); organizacje społeczne, takie jak Panoptykon, mogły reprezentować osoby, których prawa zostaną naruszone; wszystkie podmioty miały obowiązek przeprowadzania analizy wpływu AI na prawa człowieka (zarówno prywatne, jak i publiczne, także te zajmujące się ściganiem przestępczości); ludzie byli informowani, że mają do czynienia z AI – zwłaszcza jeśli to zetknięcie niesie za sobą wysokie ryzyko, że ich prawa zostaną naruszone. AI Act ma powstać do końca 2023 Co dalej? Po nowym roku planowane są dalsze prace nad poprawkami w komisjach Europarlamentu. Następny krok to głosowanie na posiedzeniu plenarnym, zaplanowane na luty bądź marzec. Tylko do tego momentu możemy liczyć na uwzględnienie postulatów wzmacniających ochronę praw obywatelskich. Następnie Parlament, Rada i Komisja uzgodnią ostateczne brzmienie dokumentu. Ma to nastąpić do końca 2023 r. Więcej na temat AI ACT i stanowisk Panoptykonu: Raport: Sztuczna inteligencja pod kontrolą UE reguluje sztuczną inteligencję: znamy pierwsze poprawki do AI Act O co walczymy w unijnej regulacji AI? 5 postulatów Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Filip Konopczyński Autor Anna Obem, Dominika ChachułaWspółpraca Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Trwa walka o regulację sztucznej inteligencji w UE. Rozmowa z Filipem Konopczyńskim Kamery rozpoznające twarze. Bramki na lotniskach. Drony skanujące las, żeby wykrywać nielegalne wysypiska. I drony skanujące las na granicy, żeby wykrywać ludzi. Mówiące lodówki i Chat GPT. 18.05.2023 Dźwięk Artykuł Duch w maszynie. Norweska Rada Konsumentów o zagrożeniach ze strony generatywnej AI Koncentracja władzy w rękach dużych firm technologicznych, nieprzejrzyste systemy, brak odpowiedzialności. A na drugą nóżkę: uprzedzenia, dyskryminacja, naruszenia prywatności, podatność na oszustwa i negatywny wpływ na środowisko, a może także na rynek pracy. 11.07.2023 Tekst Poradnik AI Act w działaniu 2. Siri, Alexa i inni smart asystenci Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów? 10.05.2024 Tekst