Artykuł 12.12.2023 5 min. czytania Tekst Image Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. W dokumencie znalazły się obowiązkowe oceny ryzyka dla systemów należących do kategorii wysokiego ryzyka, prawo do skargi na działanie systemów AI i podwyższone standardy dla modeli podstawowych, o które walczyły organizacje społeczne. Przedstawiciele Parlamentu, Komisji Europejskiej i Rady Unii Europejskiej wypracowali konsensus po 36-godzinnym maratonie negocjacyjnym. Analizujemy, czy starania koalicji europejskich organizacji społecznych o uwzględnienie w akcie ochrony praw człowieka się powiodły – na razie na podstawie przecieków i komunikatów unijnych instytucji. Szczegóły przyjętych rozwiązań poznamy dopiero za około miesiąc, kiedy opublikowana zostanie oficjalna wersja AI Act. Ochrona praw ludzi w akcie w sprawie sztucznej inteligencji W skrócie: nie jest dobrze, ale na pewno mogło być gorzej. Ochrona praw ludzi w ostatecznej wersji aktu jest słabsza niż to, co proponował Parlament Europejski w czerwcu, ale jest dużo lepsza niż w projekcie, który wyszedł z Komisji Europejskiej. Od kwietnia 2021 r., kiedy Komisja Europejska ogłosiła swój projekt regulacji, organizacje społeczne w całej Europie walczyły o wydłużenie listy systemów zakazanych, o doprecyzowanie kryteriów decydujących o tym, jaki system trafi do kategorii wysokiego ryzyka, a także o realne obowiązki dla firm i instytucji wdrażających takie systemy. Najbardziej kontrowersyjne z punktu widzenia organizacji społecznych jest osłabienie zakazów, które miały chronić Europejczyków i Europejki przed systemami mogącymi ustalić tożsamość człowieka na podstawie zdjęcia czy nagrania, albo tymi, które rozpoznają przeżywane w danym momencie emocje. Takie systemy mogą być łatwo użyte przeciwko ludziom, np. przez niekontrolowane w sposób demokratyczny służby. Ostał się jednak zakaz społecznego scoringu oraz systemów wykorzystujących informacje masowo pozyskiwane z Internetu – i to jest dobra wiadomość. Posłuchaj podcastu z Katarzyną Sarek: Jak działa chiński system inwigilacji obywateli? Niedozwolone wykorzystywanie AI: Stosowanie systemów do indywidualnej predykcji kryminalnej za pomocą sztucznej inteligencji – czyli do oceniania, jakie jest ryzyko, że konkretna osoba popełni przestępstwo Systemy AI rozpoznające emocje w edukacji i pracy Biometryczna kategoryzacja osób, ale tylko jeśli opiera się na danych wrażliwych Dozwolone wykorzystywanie AI: Modele sztucznej inteligencji dla służb policyjnych – np. pozwalające oszacować prawdopodobieństwo wystąpienia incydentów w danym miejscu czy czasie (będą one jednocześnie systemami wysokiego ryzyka) Rozpoznawanie emocji dla innych miejsc niż edukacja i praca (za zgodą osoby, która jest poddana rozpoznawaniu) Organizacje społeczne chciały też wprowadzenia konkretnych mechanizmów chroniących ludzi w zetknięciu z systemami sztucznej inteligencji. Według przecieków w ostatecznym tekście aktu znalazło się prawo do indywidualnej skargi na decyzję podjętą z udziałem AI. Będziemy mieć też możliwość zbiorowego dochodzenia praw. To ważne, bo mówimy o systemach, których działanie dotyka wielu osób. Dlatego, kiedy system popełni błąd, ucierpi na tym cała grupa. AI Act nakłada obowiązki na biznes Najtrudniejsze w negocjacjach okazały się zagadnienia związane z regulacją modeli podstawowych, takich jak GPT, Bard, Anthropic czy Gemini. Ostatecznie regulacja obejmie zarówno twórców, jak i dostawców. Nałożone na nich obowiązki, w tym m.in. zarządzanie ryzykiem, udostępnianie dokumentacji technicznej partnerom, przejrzystość, jakość i zgodność z prawem baz danych treningowych, będą większe dla liderów rynku takich jak Microsoft, Google lub OpenAI. Duże emocje wzbudziły też obowiązki firm i instytucji wdrażających systemy z kategorii wysokiego ryzyka. W AI Act prawdopodobnie znajdzie się obowiązek przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem systemów wysokiego ryzyka. Dodatkowo podmioty publiczne będą musiały rejestrować je centralnej europejskiej bazie. W ten sposób Unia chce zapobiegać szkodom, jakie może powodować źle zaprojektowana albo źle wykorzystana sztuczna inteligencja, a nie czekać, aż mleko się wyleje. Z bardziej szczegółowym komentarzem wstrzymujemy się do momentu, kiedy zostanie opublikowana ostateczna treść rozporządzenia o AI – co powinno nastąpić w ciągu kilku tygodni. Polecamy omówienie wersji AI Act przyjętej przez Parlament Europejski: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa. Anna Obem Autorka Filip Konopczyński, Katarzyna SzymielewiczWspółpraca Image Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Nadchodzi wielki wyrównywacz. Rozmowa z Janem Zygmuntowskim WHO zakłada gorącą linię o pandemii na WhatsAppie (aplikacja Facebooka), brytyjski rząd testuje obywateli na obecność wirusa dzięki wsparciu logistycznemu Amazona, a w całej Europie aplikacje do śledzenia kontaktów korzystają z otwartego protokołu Google i Apple. Pandemia uwypukliła to, o czym już… 16.07.2020 Dźwięk Artykuł ZUS chce wiedzieć wszystko Ministerstwo Rodziny i Polityki Społecznej chce wyposażyć ZUS w szerokie kompetencje żądania praktycznie nieograniczonych danych i informacji, i to od bliżej nieokreślonych podmiotów i osób – poinformował portal prawo.pl. A wszystko po to, żeby ZUS mógł wygodniej i dokładniej sprawdzać, czy osobie… 17.02.2021 Tekst Artykuł Ministerstwo Spraw Nadzorczych. Nowe zabawki MSWiA To, że władza wykonawcza dąży do poszerzania swojego stanu posiadania, nie jest zjawiskiem ani nowym, ani wyjątkowym. Jednak przyrost uprawnień polskiego ministra spraw wewnętrznych następuje w tempie geometrycznym, o czym świadczą dwie nowo powstałe formacje pozostające w jego gestii: Biuro… 03.01.2018 Tekst