Algorytm do profilowania naszych praw. Czy powinniśmy go znać?

Artykuł
20.09.2016
6 min. czytania
Tekst
Image
Obrazek

W zeszłym tygodniu brytyjski dziennik The Guardian napisał, że algorytmy rządzą światem. Pogląd taki jest być może jeszcze przesadzony, jednak już teraz można zauważyć, że systemy informatyczne, które automatyczne podejmują decyzje, pojawiają się w coraz to nowych obszarach życia. Jednym z takich przykładów, którym od kilku lat intensywnie zajmuje się Fundacja Panoptykon, jest profilowanie stosowane w urzędach pracy. Udało nam się uzyskać dostęp do informacji o algorytmie wykorzystywanym przy przydzielaniu bezrobotnych do poszczególnych kategorii. Dla wielu zainteresowanych jest to na pewno cenna informacja, pozwalająca lepiej zrozumieć proces profilowania. Jednak wciąż jesteśmy daleko od systemowego rozwiązania problemu braku przejrzystości tego mechanizmu.

Samo profilowanie polega na podzieleniu osób bezrobotnych na trzy kategorie i dopasowaniu do każdej z nich odpowiedniego wsparcia. Kategoryzacja odbywa się na podstawie zgromadzonych w trakcie wywiadu danych o osobie bezrobotnej. Każdej udzielonej przez osobę bezrobotnej odpowiedzi mechanizm przyznaje odpowiednią liczbę punktów, które są później sumowane i przekładają się na jeden z trzech profili pomocy. Niestety, system został skonstruowany tak, że – przynajmniej w niektórych sytuacjach – zamiast pomagać potrafi zablokować dostęp do pomocy.

Profilowanie naszych praw

Gdy pojawił się projekt przepisów dotyczących profilowania, alarmowaliśmy, że cały mechanizm będzie po prostu nietransparentny. W naszym przekonaniu zasady dostępności do konkretnych form usług publicznych powinny być dla obywateli jasne. Prawo człowieka do pracy, które obejmuje m.in. wsparcie w okresie bezrobocia, jest gwarantowane przez naszą Konstytucję oraz umowy międzynarodowe (np. Europejską kartę społeczną). Ze standardów tych wynika, że kryteria przyznawania, odbierania czy odmowy dostępu do pomocy skierowanej dla obywateli powinny być określone w przepisach prawnych.

W tradycyjnym modelu o przyznaniu pomocy decydują kryteria ujęte w ustawie: np. o konkretne wsparcie może wnioskować osoba w danym wieku czy sytuacji życiowej. Przy profilowaniu model ten zmienia się diametralnie. O ile o tym, jakie dane są gromadzone w trakcie kategoryzacji, mówią (choć nie zawsze precyzyjnie) akty prawne; o tyle punktacja, zadawane pytania, reguły stosowane przez system informatyczny oraz jego obsługa zostały opisane jedynie w wewnętrznych wytycznych resortu pracy. Czynniki te natomiast bezpośrednio przekładają się na prawa socjalne obywateli. Na przykład możliwość zmiany przez urzędnika wygenerowanego automatycznie profilu została przewidziana przez system informatyczny, ale brakuje jej na poziomie przepisów prawnych.

Przykłady tych technicznych rozwiązań można mnożyć, zdecydowaliśmy się więc zawalczyć o większą przejrzystość systemu profilowania w praktyce. Efektem było otrzymanie pytań zadawanych przy kategoryzowaniu czy – ostatnio – punktacji. Resort rodziny udostępnił na nam te dane, ale niechętnie. Przekazując nam informację o punktacji, wiceminister rodziny wskazał, że jej upublicznienie może negatywnie wpłynąć na rzetelność procesu profilowania. Co więcej: nie wszyscy bezrobotni uzyskają dostęp do tego typu informacji w Internecie – w związku z tym powstanie między nimi pewna nierówność w wiedzy posiadanej o całym procesie.

Argumenty podane przez Ministerstwo są oczywiście istotne. Osoby bezrobotne faktycznie będą w nierównej sytuacji jeżeli chodzi o dostęp do publikowanych przez nas informacji. Ci z większymi kompetencjami i posługujący się Internetem dotrą do zasad przyznawania profili z łatwością. Inni, chociażby „wykluczeni cyfrowo” (czyli np. osoby gorzej wykształcone czy z mniejszych miast), takiej informacji mogą nie uzyskać. Wierzymy jednak, że te materiały powinny być publicznie dostępne. Nasze działania i ich charakter są oczywiście zaledwie namiastką przejrzystości. Sama znajomość algorytmu i „bebechów” systemu informatycznego jest ważna, ale często może nie wystarczyć. Może się chociażby okazać, że osoby bezrobotne nie będą w stanie zrozumieć tych dokumentów i wykorzystać ich w praktyce. Nie pokazują one również wszystkich elementów i zawiłości profilowania. Jednak bezrobotni nie mają innych możliwości, by dowiedzieć się więcej o systemie warunkującym ich prawa. Poruszanie się po skomplikowanym systemie wsparcia dla osób bezrobotnych staje się więc znacznie utrudnione. Naszym zdaniem brakuje systemowych rozwiązań, które zagwarantują osobom bezrobotnym przejrzyste informacje o tym, czym jest profilowanie, jak ono działa oraz jakie są jego konsekwencje. Odpowiedzią na te wątpliwości nie jest jednak utajnianie samego kwestionariusza.

Przejrzystość – brakuje debaty publicznej

Problem transparentności związany z profilowaniem dotyczy również innych podstawowych kwestii dla państwa prawa. To znaczy: na ile możemy w ogóle dopuszczać, że to systemy informatyczne i ich twórcy będą decydowali o tym, kto ma prawo do których usług publicznych. Mark Bovens i Stavros Zouridis (naukowcy z Holandii) wskazują, że przy automatycznych mechanizmach podejmowania decyzji dochodzi do pewnej fundamentalnej zmiany dla demokratycznego państwa prawa. Systemy informatyczne są dużo mniej zrozumiałe dla obywateli, ale również dla demokratycznie wybranych władz. Nie wypracowano jeszcze dobrych narzędzi i procedur umożliwiających ich ocenę z punktu widzenia praw człowieka oraz obowiązujących przepisów. Pewnym wyjątkiem jest ochrona danych osobowych, jednak ta dotyka zaledwie pewnego wycinka i reguluje sam proces przetwarzania danych a nie do końca jego skutki.

Holenderscy naukowcy postulują wprowadzenie obligatoryjnej kontroli tego typu systemów przez specjalne komisje parlamentarne czy niezależne organy. Uważają również, że obywatele powinni otrzymywać pełną informację o systemie, a do wiadomości publicznej powinny być przekazywane wszystkie „drzewka decyzyjne” stosowane w danym mechanizmie. Z kolei dwoje amerykańskich akademików, Danielle Citron i Frank Pasquale, wskazuje, że jedną z niezbędnych gwarancji jest ocena stosowanych algorytmów pod kątem np. ryzyka dyskryminacji. Ocena taka mogłaby być dokonywana przez niezależne instytucje czy odpowiednich audytorów. Dopiero po takiej ocenie systemy mogłyby być dopuszczane do użytku.

W obszarze nauki zapewne można znaleźć jeszcze więcej podobnych postulatów. Mają one jednak – jak na razie – wymiar teoretyczny. I choć algorytmy jeszcze światem nie rządzą, to niestety mogą tę władzę niebawem zdobyć. Jeśli automatyczne systemy podejmowania decyzji będą wdrażane w kolejnych sferach życia, nie uciekniemy od dyskusji nad tym, jak przy ich obecności możemy dochodzić swoich praw. Niestety, tej dyskusji nawet jeszcze nie rozpoczęliśmy.

Jędrzej Niklas

Kwestionariusz profilowania wraz z punktacją [PDF]

Pismo MRPiPS w sprawie kwestionariusza [PDF]

Polecamy również:

Raport Fundacji Panoptykon: Profiling the Unemployed in Poland: Social and Political Implications of Algorithmic Decision Making [PDF]

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.