Artykuł 04.05.2023 3 min. czytania Tekst Image Zbliża się głosowanie plenarne w sprawie aktu o sztucznej inteligencji. Organizacje społeczne apelują do europosłów i europosłanek o przyjęcie rozwiązań chroniących ludzi przed zagrożeniami związanymi z wykorzystaniem AI. Koalicja European Digital Rights (EDRi), do której należy Fundacja Panoptykon, opublikowała list otwarty w tej sprawie. Systemy oparte na sztucznej inteligencji znajdują coraz szersze zastosowanie także w dziedzinach, w których niosą za sobą ryzyko ograniczenia praw i wolności ludzi. Biometryczna identyfikacja w przestrzeni publicznej, predykcja kryminalna w stosunku do pojedynczych osób, rozpatrywanie wniosków o azyl, ale też rozpoznawanie emocji czy kategoryzowanie ludzi względem ich słabości to tylko wybrane przykłady zastosowań AI, które w istotny sposób mogą wpływać na nasze codzienne życie. Organizacje społeczne wzywają europosłów i europosłanki do zagłosowania za poprawkami do aktu o sztucznej inteligencji, które ograniczą negatywny wpływ AI na życie nas wszystkich i będą nas chronić np. przed niesprawiedliwym ograniczeniem dostępu do edukacji, systemu sprawiedliwości, zatrudnienia czy usług socjalnych. Domagamy się m.in.: 1. Zakazu stosowania opartych na AI systemów, które niosą nadmierne ryzyko dla praw podstawowych Zakaz powinien objąć m.in.: systemy biometrycznej identyfikacji osób w przestrzeni publicznej w czasie rzeczywistym przez podmioty prywatne i publiczne – bez wyjątków; systemy predykcji kryminalnej i profilowania ludzi przez organy ścigania; wykorzystania AI w kontekście migracji, np. do profilowania ludzi w celu ograniczania ich prawa do migracji; oddziałujące na stany emocjonalne i psychiczne systemy rozpoznawania emocji, funkcjonujące w oparciu o dane psychologiczne, fizjologiczne, behawioralne i biometryczne. 2. Przejrzystości i odpowiedzialności w stosowaniu AI Postulaty obejmują m.in. nałożenie obowiązku przeprowadzenia oceny ryzyka dla praw podstawowych przed wprowadzeniem systemu do użycia i rejestrowania systemów wysokiego ryzyka w ogólnoeuropejskiej bazie. 3. Przyznania praw osobom, które będą poddane działaniu systemów wykorzystujących AI Osoby te powinny być informowane o tym, że są poddane działaniu takiego systemu, i o przysługujących im prawach. Powinny też mieć możliwość wniesienia skargi do odpowiedniego organu oraz odwołania się od decyzji, z którą się nie zgadzają. Mamy nadzieję, że europosłowie i europosłanki zagłosują za rozwiązaniami, które sprawią, że nowa regulacja wzmocni prawa podstawowe i sprawiedliwość społeczną. Pełna treść listu [EN] Polecamy: EDRi: As AI Act vote nears, the EU needs to draw a red line on racist surveillance Anna Obem Autorka Filip KonopczyńskiWspółpraca Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Czatu GPT konflikty z prawem Nie trzeba było długo czekać, żeby obok memów z papieżem wygenerowanych przez ChatGPT w sieci zaroiło się od treści zawierających manipulację i dezinformację. Aplikacja szybko „weszła” też w konflikt z prawem. 28.04.2023 Tekst Artykuł O AI na XVI Kongresie Obywatelskim [nagranie] Katarzyna Szymielewicz wzięła udział w XVI Kongresie Obywatelskim, który odbył się 16 października 2021 r. w warszawskim Centrum Nauki Kopernik. 27.10.2021 Tekst Artykuł AI Act zaczyna obowiązywać. Co ostudzi tech optymizm polskich władz? [komentarz] 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz. 02.08.2024 Tekst