Artykuł 12.12.2023 5 min. czytania Tekst Image Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. W dokumencie znalazły się obowiązkowe oceny ryzyka dla systemów należących do kategorii wysokiego ryzyka, prawo do skargi na działanie systemów AI i podwyższone standardy dla modeli podstawowych, o które walczyły organizacje społeczne. Przedstawiciele Parlamentu, Komisji Europejskiej i Rady Unii Europejskiej wypracowali konsensus po 36-godzinnym maratonie negocjacyjnym. Analizujemy, czy starania koalicji europejskich organizacji społecznych o uwzględnienie w akcie ochrony praw człowieka się powiodły – na razie na podstawie przecieków i komunikatów unijnych instytucji. Szczegóły przyjętych rozwiązań poznamy dopiero za około miesiąc, kiedy opublikowana zostanie oficjalna wersja AI Act. Ochrona praw ludzi w akcie w sprawie sztucznej inteligencji W skrócie: nie jest dobrze, ale na pewno mogło być gorzej. Ochrona praw ludzi w ostatecznej wersji aktu jest słabsza niż to, co proponował Parlament Europejski w czerwcu, ale jest dużo lepsza niż w projekcie, który wyszedł z Komisji Europejskiej. Od kwietnia 2021 r., kiedy Komisja Europejska ogłosiła swój projekt regulacji, organizacje społeczne w całej Europie walczyły o wydłużenie listy systemów zakazanych, o doprecyzowanie kryteriów decydujących o tym, jaki system trafi do kategorii wysokiego ryzyka, a także o realne obowiązki dla firm i instytucji wdrażających takie systemy. Najbardziej kontrowersyjne z punktu widzenia organizacji społecznych jest osłabienie zakazów, które miały chronić Europejczyków i Europejki przed systemami mogącymi ustalić tożsamość człowieka na podstawie zdjęcia czy nagrania, albo tymi, które rozpoznają przeżywane w danym momencie emocje. Takie systemy mogą być łatwo użyte przeciwko ludziom, np. przez niekontrolowane w sposób demokratyczny służby. Ostał się jednak zakaz społecznego scoringu oraz systemów wykorzystujących informacje masowo pozyskiwane z Internetu – i to jest dobra wiadomość. Posłuchaj podcastu z Katarzyną Sarek: Jak działa chiński system inwigilacji obywateli? Niedozwolone wykorzystywanie AI: Stosowanie systemów do indywidualnej predykcji kryminalnej za pomocą sztucznej inteligencji – czyli do oceniania, jakie jest ryzyko, że konkretna osoba popełni przestępstwo Systemy AI rozpoznające emocje w edukacji i pracy Biometryczna kategoryzacja osób, ale tylko jeśli opiera się na danych wrażliwych Dozwolone wykorzystywanie AI: Modele sztucznej inteligencji dla służb policyjnych – np. pozwalające oszacować prawdopodobieństwo wystąpienia incydentów w danym miejscu czy czasie (będą one jednocześnie systemami wysokiego ryzyka) Rozpoznawanie emocji dla innych miejsc niż edukacja i praca (za zgodą osoby, która jest poddana rozpoznawaniu) Organizacje społeczne chciały też wprowadzenia konkretnych mechanizmów chroniących ludzi w zetknięciu z systemami sztucznej inteligencji. Według przecieków w ostatecznym tekście aktu znalazło się prawo do indywidualnej skargi na decyzję podjętą z udziałem AI. Będziemy mieć też możliwość zbiorowego dochodzenia praw. To ważne, bo mówimy o systemach, których działanie dotyka wielu osób. Dlatego, kiedy system popełni błąd, ucierpi na tym cała grupa. AI Act nakłada obowiązki na biznes Najtrudniejsze w negocjacjach okazały się zagadnienia związane z regulacją modeli podstawowych, takich jak GPT, Bard, Anthropic czy Gemini. Ostatecznie regulacja obejmie zarówno twórców, jak i dostawców. Nałożone na nich obowiązki, w tym m.in. zarządzanie ryzykiem, udostępnianie dokumentacji technicznej partnerom, przejrzystość, jakość i zgodność z prawem baz danych treningowych, będą większe dla liderów rynku takich jak Microsoft, Google lub OpenAI. Duże emocje wzbudziły też obowiązki firm i instytucji wdrażających systemy z kategorii wysokiego ryzyka. W AI Act prawdopodobnie znajdzie się obowiązek przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem systemów wysokiego ryzyka. Dodatkowo podmioty publiczne będą musiały rejestrować je centralnej europejskiej bazie. W ten sposób Unia chce zapobiegać szkodom, jakie może powodować źle zaprojektowana albo źle wykorzystana sztuczna inteligencja, a nie czekać, aż mleko się wyleje. Z bardziej szczegółowym komentarzem wstrzymujemy się do momentu, kiedy zostanie opublikowana ostateczna treść rozporządzenia o AI – co powinno nastąpić w ciągu kilku tygodni. Polecamy omówienie wersji AI Act przyjętej przez Parlament Europejski: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa. Anna Obem Autorka Filip Konopczyński, Katarzyna SzymielewiczWspółpraca Image Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Jak działa sztuczna inteligencja? Rozmowa z dr. Tomaszem Odrzygóździem Czym są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny… 04.05.2023 Dźwięk Artykuł Lekcja o tym, jak nie być słyszanym – spotkajmy się (wirtualnie) na Unsound Festival Technologia audio minionych generacji transmitowała, nagrywała lub przetwarzała dźwięk. W ostatnim czasie, mamy już do czynienia z inteligentnymi asystentami osobistymi, inteligentnymi głośnikami oraz innymi narzędziami, które przetwarzają sygnały oraz reagują na nie w czasie rzeczywistym. Wszyscy… 25.09.2020 Tekst Poradnik AI Act w działaniu 2. Siri, Alexa i inni smart asystenci Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów? 10.05.2024 Tekst