Artykuł 04.05.2023 3 min. czytania Tekst Image Zbliża się głosowanie plenarne w sprawie aktu o sztucznej inteligencji. Organizacje społeczne apelują do europosłów i europosłanek o przyjęcie rozwiązań chroniących ludzi przed zagrożeniami związanymi z wykorzystaniem AI. Koalicja European Digital Rights (EDRi), do której należy Fundacja Panoptykon, opublikowała list otwarty w tej sprawie. Systemy oparte na sztucznej inteligencji znajdują coraz szersze zastosowanie także w dziedzinach, w których niosą za sobą ryzyko ograniczenia praw i wolności ludzi. Biometryczna identyfikacja w przestrzeni publicznej, predykcja kryminalna w stosunku do pojedynczych osób, rozpatrywanie wniosków o azyl, ale też rozpoznawanie emocji czy kategoryzowanie ludzi względem ich słabości to tylko wybrane przykłady zastosowań AI, które w istotny sposób mogą wpływać na nasze codzienne życie. Organizacje społeczne wzywają europosłów i europosłanki do zagłosowania za poprawkami do aktu o sztucznej inteligencji, które ograniczą negatywny wpływ AI na życie nas wszystkich i będą nas chronić np. przed niesprawiedliwym ograniczeniem dostępu do edukacji, systemu sprawiedliwości, zatrudnienia czy usług socjalnych. Domagamy się m.in.: 1. Zakazu stosowania opartych na AI systemów, które niosą nadmierne ryzyko dla praw podstawowych Zakaz powinien objąć m.in.: systemy biometrycznej identyfikacji osób w przestrzeni publicznej w czasie rzeczywistym przez podmioty prywatne i publiczne – bez wyjątków; systemy predykcji kryminalnej i profilowania ludzi przez organy ścigania; wykorzystania AI w kontekście migracji, np. do profilowania ludzi w celu ograniczania ich prawa do migracji; oddziałujące na stany emocjonalne i psychiczne systemy rozpoznawania emocji, funkcjonujące w oparciu o dane psychologiczne, fizjologiczne, behawioralne i biometryczne. 2. Przejrzystości i odpowiedzialności w stosowaniu AI Postulaty obejmują m.in. nałożenie obowiązku przeprowadzenia oceny ryzyka dla praw podstawowych przed wprowadzeniem systemu do użycia i rejestrowania systemów wysokiego ryzyka w ogólnoeuropejskiej bazie. 3. Przyznania praw osobom, które będą poddane działaniu systemów wykorzystujących AI Osoby te powinny być informowane o tym, że są poddane działaniu takiego systemu, i o przysługujących im prawach. Powinny też mieć możliwość wniesienia skargi do odpowiedniego organu oraz odwołania się od decyzji, z którą się nie zgadzają. Mamy nadzieję, że europosłowie i europosłanki zagłosują za rozwiązaniami, które sprawią, że nowa regulacja wzmocni prawa podstawowe i sprawiedliwość społeczną. Pełna treść listu [EN] Polecamy: EDRi: As AI Act vote nears, the EU needs to draw a red line on racist surveillance Anna Obem Autorka Filip KonopczyńskiWspółpraca Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Maszynowe uprzedzenia Superwydajna, nieomylna, pozbawiona ludzkich uprzedzeń – świat oszalał na punkcie sztucznej inteligencji. Czy ten zachwyt jest uzasadniony? A może to zwykły marketingowy kit? Czy też – wręcz przeciwnie – rację mają ci, którzy twierdzą, że AI przejmie kontrolę nad naszym życiem? Rzeczywistość jest… 20.10.2021 Tekst Artykuł Czatu GPT konflikty z prawem Nie trzeba było długo czekać, żeby obok memów z papieżem wygenerowanych przez ChatGPT w sieci zaroiło się od treści zawierających manipulację i dezinformację. Aplikacja szybko „weszła” też w konflikt z prawem. 28.04.2023 Tekst Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych… 13.08.2020 Tekst