Koniec negocjacji aktu ws. sztucznej inteligencji. Nie jest dobrze, ale mogło być gorzej

Artykuł
12.12.2023
5 min. czytania
Tekst
Image

Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. W dokumencie znalazły się obowiązkowe oceny ryzyka dla systemów należących do kategorii wysokiego ryzyka, prawo do skargi na działanie systemów AI i podwyższone standardy dla modeli podstawowych, o które walczyły organizacje społeczne.

Przedstawiciele Parlamentu, Komisji Europejskiej i Rady Unii Europejskiej wypracowali konsensus po 36-godzinnym maratonie negocjacyjnym. Analizujemy, czy starania koalicji europejskich organizacji społecznych o uwzględnienie w akcie ochrony praw człowieka się powiodły – na razie na podstawie przecieków i komunikatów unijnych instytucji. Szczegóły przyjętych rozwiązań poznamy dopiero za około miesiąc, kiedy opublikowana zostanie oficjalna wersja AI Act.

Ochrona praw ludzi w akcie w sprawie sztucznej inteligencji

W skrócie: nie jest dobrze, ale na pewno mogło być gorzej. Ochrona praw ludzi w ostatecznej wersji aktu jest słabsza niż to, co proponował Parlament Europejski w czerwcu, ale jest dużo lepsza niż w projekcie, który wyszedł z Komisji Europejskiej.

Od kwietnia 2021 r., kiedy Komisja Europejska ogłosiła swój projekt regulacji, organizacje społeczne w całej Europie walczyły o wydłużenie listy systemów zakazanych, o doprecyzowanie kryteriów decydujących o tym, jaki system trafi do kategorii wysokiego ryzyka, a także o realne obowiązki dla firm i instytucji wdrażających takie systemy.

Najbardziej kontrowersyjne z punktu widzenia organizacji społecznych jest osłabienie zakazów, które miały chronić Europejczyków i Europejki przed systemami mogącymi ustalić tożsamość człowieka na podstawie zdjęcia czy nagrania, albo tymi, które rozpoznają przeżywane w danym momencie emocje. Takie systemy mogą być łatwo użyte przeciwko ludziom, np. przez niekontrolowane w sposób demokratyczny służby.

Ostał się jednak zakaz społecznego scoringu oraz systemów wykorzystujących informacje masowo pozyskiwane z Internetu – i to jest dobra wiadomość.

Posłuchaj podcastu z Katarzyną Sarek: Jak działa chiński system inwigilacji obywateli?

Niedozwolone wykorzystywanie AI:

  1. Stosowanie systemów do indywidualnej predykcji kryminalnej za pomocą sztucznej inteligencji – czyli do oceniania, jakie jest ryzyko, że konkretna osoba popełni przestępstwo
  2. Systemy AI rozpoznające emocje w edukacji i pracy
  3. Biometryczna kategoryzacja osób, ale tylko jeśli opiera się na danych wrażliwych

Dozwolone wykorzystywanie AI:

  1. Modele sztucznej inteligencji dla służb policyjnych – np. pozwalające oszacować prawdopodobieństwo wystąpienia incydentów w danym miejscu czy czasie (będą one jednocześnie systemami wysokiego ryzyka)
  2. Rozpoznawanie emocji dla innych miejsc niż edukacja i praca (za zgodą osoby, która jest poddana rozpoznawaniu)

Organizacje społeczne chciały też wprowadzenia konkretnych mechanizmów chroniących ludzi w zetknięciu z systemami sztucznej inteligencji. Według przecieków w ostatecznym tekście aktu znalazło się prawo do indywidualnej skargi na decyzję podjętą z udziałem AI. Będziemy mieć też możliwość zbiorowego dochodzenia praw. To ważne, bo mówimy o systemach, których działanie dotyka wielu osób. Dlatego, kiedy system popełni błąd, ucierpi na tym cała grupa.

AI Act nakłada obowiązki na biznes

Najtrudniejsze w negocjacjach okazały się zagadnienia związane z regulacją modeli podstawowych, takich jak GPT, Bard, Anthropic czy Gemini. Ostatecznie regulacja obejmie zarówno twórców, jak i dostawców. Nałożone na nich obowiązki, w tym m.in. zarządzanie ryzykiem, udostępnianie dokumentacji technicznej partnerom, przejrzystość, jakość i zgodność z prawem baz danych treningowych, będą większe dla liderów rynku takich jak Microsoft, Google lub OpenAI.

Duże emocje wzbudziły też obowiązki firm i instytucji wdrażających systemy z kategorii wysokiego ryzyka. W AI Act prawdopodobnie znajdzie się obowiązek przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem systemów wysokiego ryzyka. Dodatkowo podmioty publiczne będą musiały rejestrować je centralnej europejskiej bazie. W ten sposób Unia chce zapobiegać szkodom, jakie może powodować źle zaprojektowana albo źle wykorzystana sztuczna inteligencja, a nie czekać, aż mleko się wyleje.

Z bardziej szczegółowym komentarzem wstrzymujemy się do momentu, kiedy zostanie opublikowana ostateczna treść rozporządzenia o AI – co powinno nastąpić w ciągu kilku tygodni.

Polecamy omówienie wersji AI Act przyjętej przez Parlament Europejski: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa.

Filip Konopczyński, Katarzyna Szymielewicz
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.