Artykuł 12.12.2023 5 min. czytania Tekst Image Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. W dokumencie znalazły się obowiązkowe oceny ryzyka dla systemów należących do kategorii wysokiego ryzyka, prawo do skargi na działanie systemów AI i podwyższone standardy dla modeli podstawowych, o które walczyły organizacje społeczne. Przedstawiciele Parlamentu, Komisji Europejskiej i Rady Unii Europejskiej wypracowali konsensus po 36-godzinnym maratonie negocjacyjnym. Analizujemy, czy starania koalicji europejskich organizacji społecznych o uwzględnienie w akcie ochrony praw człowieka się powiodły – na razie na podstawie przecieków i komunikatów unijnych instytucji. Szczegóły przyjętych rozwiązań poznamy dopiero za około miesiąc, kiedy opublikowana zostanie oficjalna wersja AI Act. Ochrona praw ludzi w akcie w sprawie sztucznej inteligencji W skrócie: nie jest dobrze, ale na pewno mogło być gorzej. Ochrona praw ludzi w ostatecznej wersji aktu jest słabsza niż to, co proponował Parlament Europejski w czerwcu, ale jest dużo lepsza niż w projekcie, który wyszedł z Komisji Europejskiej. Od kwietnia 2021 r., kiedy Komisja Europejska ogłosiła swój projekt regulacji, organizacje społeczne w całej Europie walczyły o wydłużenie listy systemów zakazanych, o doprecyzowanie kryteriów decydujących o tym, jaki system trafi do kategorii wysokiego ryzyka, a także o realne obowiązki dla firm i instytucji wdrażających takie systemy. Najbardziej kontrowersyjne z punktu widzenia organizacji społecznych jest osłabienie zakazów, które miały chronić Europejczyków i Europejki przed systemami mogącymi ustalić tożsamość człowieka na podstawie zdjęcia czy nagrania, albo tymi, które rozpoznają przeżywane w danym momencie emocje. Takie systemy mogą być łatwo użyte przeciwko ludziom, np. przez niekontrolowane w sposób demokratyczny służby. Ostał się jednak zakaz społecznego scoringu oraz systemów wykorzystujących informacje masowo pozyskiwane z Internetu – i to jest dobra wiadomość. Posłuchaj podcastu z Katarzyną Sarek: Jak działa chiński system inwigilacji obywateli? Niedozwolone wykorzystywanie AI: Stosowanie systemów do indywidualnej predykcji kryminalnej za pomocą sztucznej inteligencji – czyli do oceniania, jakie jest ryzyko, że konkretna osoba popełni przestępstwo Systemy AI rozpoznające emocje w edukacji i pracy Biometryczna kategoryzacja osób, ale tylko jeśli opiera się na danych wrażliwych Dozwolone wykorzystywanie AI: Modele sztucznej inteligencji dla służb policyjnych – np. pozwalające oszacować prawdopodobieństwo wystąpienia incydentów w danym miejscu czy czasie (będą one jednocześnie systemami wysokiego ryzyka) Rozpoznawanie emocji dla innych miejsc niż edukacja i praca (za zgodą osoby, która jest poddana rozpoznawaniu) Organizacje społeczne chciały też wprowadzenia konkretnych mechanizmów chroniących ludzi w zetknięciu z systemami sztucznej inteligencji. Według przecieków w ostatecznym tekście aktu znalazło się prawo do indywidualnej skargi na decyzję podjętą z udziałem AI. Będziemy mieć też możliwość zbiorowego dochodzenia praw. To ważne, bo mówimy o systemach, których działanie dotyka wielu osób. Dlatego, kiedy system popełni błąd, ucierpi na tym cała grupa. AI Act nakłada obowiązki na biznes Najtrudniejsze w negocjacjach okazały się zagadnienia związane z regulacją modeli podstawowych, takich jak GPT, Bard, Anthropic czy Gemini. Ostatecznie regulacja obejmie zarówno twórców, jak i dostawców. Nałożone na nich obowiązki, w tym m.in. zarządzanie ryzykiem, udostępnianie dokumentacji technicznej partnerom, przejrzystość, jakość i zgodność z prawem baz danych treningowych, będą większe dla liderów rynku takich jak Microsoft, Google lub OpenAI. Duże emocje wzbudziły też obowiązki firm i instytucji wdrażających systemy z kategorii wysokiego ryzyka. W AI Act prawdopodobnie znajdzie się obowiązek przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem systemów wysokiego ryzyka. Dodatkowo podmioty publiczne będą musiały rejestrować je centralnej europejskiej bazie. W ten sposób Unia chce zapobiegać szkodom, jakie może powodować źle zaprojektowana albo źle wykorzystana sztuczna inteligencja, a nie czekać, aż mleko się wyleje. Z bardziej szczegółowym komentarzem wstrzymujemy się do momentu, kiedy zostanie opublikowana ostateczna treść rozporządzenia o AI – co powinno nastąpić w ciągu kilku tygodni. Polecamy omówienie wersji AI Act przyjętej przez Parlament Europejski: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa. Anna Obem Autorka Filip Konopczyński, Katarzyna SzymielewiczWspółpraca Image Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych… 13.08.2020 Tekst Artykuł Premier podstawia nogę RODO Na ostatniej prostej prowadzącej do wejścia w życie europejskiego rozporządzenia o ochronie danych osobowych (RODO) rząd robi woltę, która może wypaczyć sens całej reformy i wprowadzić Polskę w kolejny spór z Komisją Europejską. Pod naciskiem Ministerstwa Rozwoju prowadzące prace nad wdrożeniem… 17.01.2018 Tekst Artykuł Kamery w szkołach – szansa na porządki Ministerstwo Cyfryzacji wspólnie z Ministerstwem Edukacji Narodowej przygotowało projekt regulacji funkcjonowania kamer w szkołach. Urządzeń od tego nie ubędzie, ale przynajmniej skończy się monitoringowa wolna amerykanka. Napisaliśmy do ministerstw o tym, co myślimy o proponowanej regulacji:… 04.05.2018 Tekst