Artykuł 15.06.2023 6 min. czytania Tekst Image Europosłowie nie zdecydowali się na całkowite zakazanie inwigilacji biometrycznej w przestrzeni publicznej ani na przyznanie prawa do uzyskania wyjaśnienia osobom poszkodowanym decyzją podjętą z udziałem AI, niezależnie od kategorii systemu – co postulowały organizacje społeczne. Ale są też pozytywne informacje. Parlament Europejski przyjął akt o sztucznej inteligencji (AI Act). Postulowaliśmy, by zapewnić maksymalną ochronę obywateli i obywatelek przed największymi zagrożeniami związanymi z wykorzystywaniem systemów opartych na AI. Wiele poprawek organizacji nie zostało uwzględnionych. Na szczęście w głosowaniu utrzymała się wersja, która m.in. zakazuje predykcji kryminalnej. Nie grozi nam więc Raport mniejszości w prawdziwym życiu. Jak AI Act nas ochroni Przyjęta przez Parlament Europejski treść aktu wciąż zapewnia lepszą ochronę praw i wolności niż zaproponowała to pierwotnie Komisja Europejska w projekcie opublikowanym w 2021 r. Co znalazło się w wersji Parlamentu? M.in. szereg rozwiązań, o których przejęcie apelował Panoptykon i nasza europejska koalicja EDRi. Zakazane najbardziej ryzykowne zastosowania AI Systemy oparte na sztucznej inteligencji nie będą mogły być wykorzystywane do predykcji kryminalnej – czyli do oceniania, jakie jest ryzyko, że dana osoba popełni przestępstwo. Ponadto organy ścigania, służby graniczne, pracodawcy i instytucje oświatowe nie będą mogły korzystać z systemów opartych na rozpoznawaniu emocji. Zakazana będzie również biometryczna kategoryzacja osób, czyli profilowanie na podstawie cech wyglądu czy sposobu poruszania się. Systemy rekomendacyjne platform internetowych (i nie tylko) na liście AI wysokiego ryzyka Na liście systemów wysokiego ryzyka znajdą się m.in. systemy rekomendacyjne dużych platform internetowych, systemy wykorzystywane do intencjonalnego wpływania na wyborców oraz narzędzia używane przez administrację publiczną, a także organy ścigania np. do oceny stanu prawnego, dowodów czy zdarzeń. Wobec systemów wysokiego ryzyka wymogi przejrzystości i możliwości kontroli będą zdecydowanie wyższe niż wobec pozostałych systemów. Zwiększenie kontroli nad systemami AI wysokiego ryzyka Podmioty wykorzystujące takie systemy będą musiały dokonać oceny ich działania pod kątem wpływu na prawa podstawowe. Oparte na AI systemy wysokiego ryzyka stosowane przez administrację publiczną i wielkie platformy oraz systemy wykorzystywane w więcej niż jednym kraju będą rejestrowane w unijnej bazie prowadzonej przez Komisję Europejską. Pozostałe systemy wysokiego ryzyka będą rejestrowane w krajowych bazach. Krajowe organy nadzorcze ds. AI będą natomiast mogły dokonywać niezapowiedzianych kontroli. Lepsza ochrona osób dotkniętym decyzjami systemów AI Osoby, których prawa zostaną naruszone decyzją wydaną z wykorzystaniem AI, będą mogły wnieść skargę do krajowego organu ds. AI. A także zaskarżyć decyzję (lub bezczynność) takiego organu do sądu. W przypadku systemów wysokiego ryzyka – będą mogły uzyskać szczegółowe wyjaśnienie decyzji w swojej sprawie. Niestety prawo do wyjaśnienia decyzji podjętej z udziałem AI ograniczone będzie do działania systemów wysokiego ryzyka. Nie będzie można skorzystać z niego w przypadku pozostałych modeli i programów AI. PE przeciwny inwigilacji biometrycznej na życzenie rządów Na ostatniej prostej Europejska Partia Ludowa próbowała wprowadzić swoją poprawkę, która umożliwiałaby rządom wprowadzanie inwigilacji biometrycznej w czasie rzeczywistym. Tę niebezpieczną zmianę udało się zablokować. Nie udało się jednak przekonać europosłów i europosłanek do całkowitego zakazania stosowania takich systemów. Inwigilacja biometryczna będzie mogła być prowadzona – ale jedynie w wyjątkowych sytuacjach i za zgodą sądu. Lepsza definicja AI Definicja sztucznej inteligencji, która znalazła się w akcie, jest bardziej precyzyjna i odporna na zmiany technologiczne. „Sztuczna inteligencja” ma być używana na określenie programu komputerowego, który np. zamiast wykonywać listę dokładnych instrukcji wykorzystuje zaawansowane modele statystyczne do tego, żeby rozwiązać zadanie. Na ostatniej prostej europarlamentarzyści i europarlamentarzystki przyjęli przepisy dedykowane tzw. modelom podstawowym (takim jak np. GPT czy Bard), które, aby móc działać w Europie, będą musiały być tworzone i działać zgodnie z naszym prawem m.in. w zakresie prywatności, zakazu dyskryminacji czy praw autorskich. Czego brakuje jeszcze w AI Act? Przed głosowaniem plenarnym organizacje społeczne postulowały przyjęcie innych poprawek, które wzmocniłyby ochronę ludzi przed negatywnymi konsekwencjami wykorzystania AI. Były to m.in.: Większe zaangażowanie organizacji społecznych w ochronę ludzi (apelowaliśmy o przyznanie organizacjom możliwości reprezentowania osób, które zostały pokrzywdzone decyzjami podjętymi z udziałem sztucznej inteligencji oraz prawa do występowania przeciwko systemom AI także przed tym, jak wyrządzą realne szkody). Prawo do każdorazowego wyjaśnienia decyzji podjętej przy pomocy AI (także w przypadku systemów innych niż systemy wysokiego ryzyka). Pełny zakaz inwigilacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej. Obowiązek rejestrowania wszystkich systemów wysokiego ryzyka w unijnej bazie. Po głosowaniu w Parlamencie Europejskim do negocjacji trójstronnych przystępują Komisja Europejska, Parlament i Rada Unii Europejskiej. Dopiero w efekcie tych negocjacji poznamy ostateczną treść regulacji. Pytanie, czy instytucje zachowają wszystkie dobre rozwiązania, dopiszą kolejne, a może – co byłoby z naszego punktu widzenia najgorszym scenariuszem – zrezygnują z ochrony ludzi, pozostaje otwarte. „Konstytucja” AI – co to jest akt o sztucznej inteligencji Akt o sztucznej inteligencji to pierwsza na świecie kompleksowa regulacja sztucznej inteligencji. Akt reguluje obowiązki firm i instytucji tworzących (dostawcy, importerzy) oraz wdrażających (użytkownicy) systemy i modele AI. Spod działania AI Act wyjęte są obszary wojskowości, badań i nauki. Akt przyjmuje logikę opartą na analizie ryzyka: pewne systemy AI mają być zakazane, inne traktowane jako wysokiego ryzyka i poddane specjalnym wymogom prawnym i technicznym (w tym ocenie ryzyka dla praw podstawowych ludzi). W przypadku popularnych chatbotów czy tzw. generatywnej AI wprowadza się z kolei obowiązek informowania ludzi o tym, że mają do czynienia z „produktem” wygenerowanym przez AI. Filip Konopczyński Autor Anna Obem Autorka Dominika ChachułaWspółpraca Image Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Jak działa sztuczna inteligencja? Rozmowa z dr. Tomaszem Odrzygóździem Czym są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny… 04.05.2023 Dźwięk Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych… 13.08.2020 Tekst Artykuł Apel do europosłów przed głosowaniem w sprawie AI Act: zagłosujcie za ochroną ludzi i ich praw Zbliża się głosowanie plenarne w sprawie aktu o sztucznej inteligencji. Organizacje społeczne apelują do europosłów i europosłanek o przyjęcie rozwiązań chroniących ludzi przed zagrożeniami związanymi z wykorzystaniem AI. Koalicja European Digital Rights (EDRi), do której należy Fundacja Panoptykon… 04.05.2023 Tekst