Artykuł 12.12.2023 5 min. czytania Tekst Image Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. W dokumencie znalazły się obowiązkowe oceny ryzyka dla systemów należących do kategorii wysokiego ryzyka, prawo do skargi na działanie systemów AI i podwyższone standardy dla modeli podstawowych, o które walczyły organizacje społeczne. Przedstawiciele Parlamentu, Komisji Europejskiej i Rady Unii Europejskiej wypracowali konsensus po 36-godzinnym maratonie negocjacyjnym. Analizujemy, czy starania koalicji europejskich organizacji społecznych o uwzględnienie w akcie ochrony praw człowieka się powiodły – na razie na podstawie przecieków i komunikatów unijnych instytucji. Szczegóły przyjętych rozwiązań poznamy dopiero za około miesiąc, kiedy opublikowana zostanie oficjalna wersja AI Act. Ochrona praw ludzi w akcie w sprawie sztucznej inteligencji W skrócie: nie jest dobrze, ale na pewno mogło być gorzej. Ochrona praw ludzi w ostatecznej wersji aktu jest słabsza niż to, co proponował Parlament Europejski w czerwcu, ale jest dużo lepsza niż w projekcie, który wyszedł z Komisji Europejskiej. Od kwietnia 2021 r., kiedy Komisja Europejska ogłosiła swój projekt regulacji, organizacje społeczne w całej Europie walczyły o wydłużenie listy systemów zakazanych, o doprecyzowanie kryteriów decydujących o tym, jaki system trafi do kategorii wysokiego ryzyka, a także o realne obowiązki dla firm i instytucji wdrażających takie systemy. Najbardziej kontrowersyjne z punktu widzenia organizacji społecznych jest osłabienie zakazów, które miały chronić Europejczyków i Europejki przed systemami mogącymi ustalić tożsamość człowieka na podstawie zdjęcia czy nagrania, albo tymi, które rozpoznają przeżywane w danym momencie emocje. Takie systemy mogą być łatwo użyte przeciwko ludziom, np. przez niekontrolowane w sposób demokratyczny służby. Ostał się jednak zakaz społecznego scoringu oraz systemów wykorzystujących informacje masowo pozyskiwane z Internetu – i to jest dobra wiadomość. Posłuchaj podcastu z Katarzyną Sarek: Jak działa chiński system inwigilacji obywateli? Niedozwolone wykorzystywanie AI: Stosowanie systemów do indywidualnej predykcji kryminalnej za pomocą sztucznej inteligencji – czyli do oceniania, jakie jest ryzyko, że konkretna osoba popełni przestępstwo Systemy AI rozpoznające emocje w edukacji i pracy Biometryczna kategoryzacja osób, ale tylko jeśli opiera się na danych wrażliwych Dozwolone wykorzystywanie AI: Modele sztucznej inteligencji dla służb policyjnych – np. pozwalające oszacować prawdopodobieństwo wystąpienia incydentów w danym miejscu czy czasie (będą one jednocześnie systemami wysokiego ryzyka) Rozpoznawanie emocji dla innych miejsc niż edukacja i praca (za zgodą osoby, która jest poddana rozpoznawaniu) Organizacje społeczne chciały też wprowadzenia konkretnych mechanizmów chroniących ludzi w zetknięciu z systemami sztucznej inteligencji. Według przecieków w ostatecznym tekście aktu znalazło się prawo do indywidualnej skargi na decyzję podjętą z udziałem AI. Będziemy mieć też możliwość zbiorowego dochodzenia praw. To ważne, bo mówimy o systemach, których działanie dotyka wielu osób. Dlatego, kiedy system popełni błąd, ucierpi na tym cała grupa. AI Act nakłada obowiązki na biznes Najtrudniejsze w negocjacjach okazały się zagadnienia związane z regulacją modeli podstawowych, takich jak GPT, Bard, Anthropic czy Gemini. Ostatecznie regulacja obejmie zarówno twórców, jak i dostawców. Nałożone na nich obowiązki, w tym m.in. zarządzanie ryzykiem, udostępnianie dokumentacji technicznej partnerom, przejrzystość, jakość i zgodność z prawem baz danych treningowych, będą większe dla liderów rynku takich jak Microsoft, Google lub OpenAI. Duże emocje wzbudziły też obowiązki firm i instytucji wdrażających systemy z kategorii wysokiego ryzyka. W AI Act prawdopodobnie znajdzie się obowiązek przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem systemów wysokiego ryzyka. Dodatkowo podmioty publiczne będą musiały rejestrować je centralnej europejskiej bazie. W ten sposób Unia chce zapobiegać szkodom, jakie może powodować źle zaprojektowana albo źle wykorzystana sztuczna inteligencja, a nie czekać, aż mleko się wyleje. Z bardziej szczegółowym komentarzem wstrzymujemy się do momentu, kiedy zostanie opublikowana ostateczna treść rozporządzenia o AI – co powinno nastąpić w ciągu kilku tygodni. Polecamy omówienie wersji AI Act przyjętej przez Parlament Europejski: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa. Anna Obem Autorka Filip Konopczyński, Katarzyna SzymielewiczWspółpraca Image Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Prywatność po drugiej stronie „Czarnego lustra” [recenzja] W szóstym sezonie Black Mirror poznajemy Joan. Joan jest okropna. Skąd to wiemy? Cóż, tytuł odcinka nie pozostawia złudzeń – możemy się jednak o tym przekonać naocznie. 26.07.2023 Tekst Artykuł „Będzie na czas”, czyli rząd zwleka z wdrożeniem dyrektywy policyjnej Już tylko 68 dni zostało na wdrożenie unijnej dyrektywy policyjnej, która miała wzmocnić prawa obywatelek i obywateli wobec państwa. Do Fundacji Panoptykon już kilka miesięcy temu trafił nieoficjalny projekt ustawy wdrażającej dyrektywę, ale oficjalnie w resorcie spraw wewnętrznych „trwają prace… 27.02.2018 Tekst Artykuł AI Act: europosłowie nie zrezygnowali z ochrony ludzi przed sztuczną inteligencją Za nami kolejny etap prac nad unijną regulacją sztucznej inteligencji. Dziś rano swoje poprawki do AI Act przyjęły komisje IMCO i LIBE Parlamentu Europejskiego. To dobre poprawki, wzmacniające ochronę naszych praw i wolności. Teraz rozporządzenie trafi pod głosowanie parlamentarne Parlamentu… 11.05.2023 Tekst