Artykuł 04.11.2015 8 min. czytania Tekst Image Przez ostatnie miesiące Fundacja Panoptykon prowadziła badania dotyczące profilowania pomocy w urzędach pracy. Problemem kategoryzowania osób bezrobotnych zajęliśmy się w 2013 roku, gdy Ministerstwo Pracy i Polityki Społecznej (MPiPS) zaproponowało zmiany w ustawie o promocji zatrudnienia i instrumentach rynku pracy. Nowe rozwiązania weszły w życie w maju 2014 roku. Na ich podstawie wszystkie osoby zarejestrowane jako bezrobotne są dzielone na trzy grupy różniące się stopniem „gotowości do podjęcia pracy” i „oddaleniem od rynku pracy”. Zakwalifikowanie do określonej grupy warunkuje działania urzędów pracy podejmowane wobec konkretnej osoby. Już na wczesnym etapie prac nad nowymi przepisami wyrażaliśmy obawy dotyczące zagrożeń ochrony prywatności i równego traktowania. Nasze wątpliwości co do profilowania potwierdziły się w trakcie przeprowadzonego projektu badawczego. Wnioski oparliśmy na szczegółowej analizie przepisów prawnych i ważnych dokumentów dotyczących nowego instrumentu, danych statystycznych nt. profilowania pochodzących od ponad 100 urzędów pracy oraz wywiadach z pracownikami urzędów pracy oraz osobami bezrobotnymi. Nasze badanie zostało zrealizowane w ramach szerszego projektu pt. Quantified Society – w ramach którego gromadzone są informacje o przypadkach profilowania i wykorzystywania technik bazujących na przetwarzaniu dużych ilości danych przez instytucje publiczne oraz biznes, pochodzących z różnych krajów. Oto najważniejsze wnioski i rekomendacje wynikające z naszego badania: 1. Brak przejrzystości Kluczowym problemem, który wiąże się z profilowaniem osób bezrobotnych, jest brak przejrzystości. Przepisy dotyczące kategoryzacji są mało precyzyjne i nie wskazują m.in. na szczegółowe zasady przetwarzania danych i dystrybuowania usług oferowanych przez urzędy pracy. Dokładne kryteria ustalenia profilu zawarte zostały tylko w dostępnych dla urzędników wytycznych, mających charakter wewnętrzny. Jednak nawet ten dokument nie wskazuje szczegółowo, jak odbywa się liczenie punktów i przydzielanie do konkretnego profilu. Algorytm – czyli matematyczny wzór, na podstawie którego system „wylicza” profil – pozostaje tajemnicą. W związku z tym osoby bezrobotne nie wiedzą, jakie cechy przeważyły o przydzieleniu ich do konkretnej kategorii. 2. Maszyna jest lepsza od człowieka? Zgodnie z oficjalnym uzasadnieniem profilowanie miało doprowadzić do ujednolicenia oraz zobiektywizowania procesu udzielania pomocy przez urzędy pracy. Twórcy nowego systemu wychodzili z założenia, iż komputer będzie działał lepiej niż człowiek i decyzje podejmowane w taki sposób będą obiektywne. Jednak system kategoryzowania realizowany w polskich urzędach opiera się na uproszczeniach, które nie uwzględniają bardzo wielu różnych skomplikowanych sytuacji życiowych. Na przykład zakres przyczyn pozostawania bez pracy nie obejmuje bezdomności czy pobytu w zakładzie karnym, które utrudniają wielu osobom wyjście z bezrobocia. Twórcy nowego mechanizmu argumentowali również, że samo profilowanie ma tylko pomagać w kategoryzowaniu osób bezrobotnych, a urzędnik zawsze będzie mógł samodzielnie podjąć decyzję o przydziale do profilu. Jednak zgodnie z analizowanymi przez nas danymi w ponad 99% przypadków decyzja ta była podejmowana automatycznie przez komputer. Zaledwie w 0,58% sytuacji urzędnicy zdecydowali się na zmianę wygenerowanego przez system profilu. 3. Trudności z realizacją zakładanych celów Reforma urzędów pracy wprowadzająca profilowanie miała przede wszystkim zapewnić większą efektywność działania tych urzędów oraz sprawić, że udzielana pomoc będzie miała zindywidualizowany charakter (czyli dostosowany do sytuacji życiowej konkretnej osoby). Jednak sam proces kategoryzacji opiera się na generalizowaniu i automatycznym analizowaniu bardzo ogólnych danych. Dlatego przyjęty model profilowania wcale nie doprowadził do indywidualizacji udzielanej pomocy, a tylko zestandaryzował podział obywateli na kategorie. Dodatkowym problemem jest przyjęty system finansowania urzędów pracy i premiowania ich efektywności. Dla samych urzędów bardziej opłacalne jest udzielanie pomocy tym osobom, które mają największą szansę na szybkie znalezienie pracy. W takiej sytuacji oprócz podziału osób bezrobotnych będącego skutkiem profilowania funkcjonuje dodatkowa kategoryzacja wynikająca z wytycznych dotyczących finansowania urzędów. Taka sytuacja negatywnie wpływa na poziom przejrzystości udzielanego wsparcia i funkcjonowanie urzędów pracy. 4. Bezrobotny – „winnym”, nie „obywatelem” Z analizy dokumentów dotyczących profilowania wynika, że urzędy pracy powinny traktować osoby bezrobotne w myśl zasady „ograniczonego zaufania”. Szczególnie dostrzegalne jest to w przypadku osób należących do III profilu, które są opisywane jako pozbawione motywacji i roszczeniowe. Wewnętrzne wytyczne wskazują, że bezrobotni mogą manipulować i oszukiwać urzędników, by tylko znaleźć się w upragnionej kategorii. Ta logika „podejrzanego” jest podstawą utrzymywania w tajemnicy np. pytań zadawanych w trakcie profilowania i zasad podziału na kategorie. Na poziomie przepisów prawnych przekłada się natomiast na brak gwarancji w dostępie do informacji o przetwarzanych danych czy możliwości odwołania się od wyniku wygenerowanego przez komputer. 5. Gorszy profil i ryzyko dyskryminacji W oficjalnych komunikatach każdy profil pomocy miał być „tak samo dobry”. Jednak konstrukcja podziału środków publicznych i form pomocy wskazuje, że osoby należące do profilu II mogą otrzymać znacznie szerszy wachlarz wsparcia niż te zakwalifikowane do profilu I, a zwłaszcza profilu III. Osobom przydzielonym do trzeciej kategorii można np. zaoferować programy specjalne. Jednak są one bardzo trudne do zorganizowania – co potwierdzają statystyki. Aż 38% przebadanych przez nas urzędów pracy nie oferuje żadnego programu dla osób z III profilu. Natomiast w tych urzędach, które uruchamiają takie programy, zazwyczaj adresuje się je do niewielkiego grona osób. Bardzo szybko więc profil III został uznany przez osoby bezrobotne i urzędników za gorszy. Poza mało atrakcyjną ofertą skierowaną do tego profilu składa się na to sama logika podziału. Bezrobotni, mimo że często nie wiedzieli, jakie dokładnie konsekwencje wiążą się z przydzieleniem do konkretnego profilu, odczuwali, że urzędy dzielą obywateli na „lepszych” i „gorszych”. W trakcie profilowania gromadzone są takie dane, jak płeć, wiek, niepełnosprawność. Obowiązujące przepisy prawne zakazują dyskryminacji stosowanej ze względu na te cechy. Istnieje ryzyko, że mogą one jednak warunkować przydział do konkretnego profilu, a więc i uzyskanie wsparcie ze strony urzędu pracy. Analizowane przez nas dane statystyczne nie wykazały jednoznacznie korelacji, na podstawie których moglibyśmy stwierdzić systemową dyskryminację w kontekście profilowania. Jednak ze względu na charakter przetwarzanych w tym mechanizmie danych (m.in. płeć czy niepełnosprawność) i uzależnienie od ich analizy udzielnego wsparcia przez urzędy, uzasadnione jest przeprowadzenie szerszych badań dotyczących ew. dyskryminacyjnych skutków dzielenia osób bezrobotnych na kategorie. Rekomendacje opracowane na podstawie wniosków z badania Wszystkie kwestie związane z profilowaniem pomocy dla osób bezrobotnych powinny być w sposób szczegółowy uregulowane na poziomie powszechnie obowiązujących przepisów, a nie wewnętrznych wytycznych czy okólników. System powinien być przejrzysty i zrozumiały zarówno dla urzędników, jak i dla osób bezrobotnych. Obowiązująca ustawa o promocji zatrudnienia i instrumentach rynku pracy powinna zawierać odpowiednie gwarancje dotyczące praw osoby bezrobotnej. Gwarancje takie powinny obejmować: prawo do uzyskania informacji o tym, jakie dane są gromadzone i jak wpływają one na decyzję o przydziale do profilu; prawo do odwołania się od decyzji podjętej przez system informatyczny i weryfikacji takiej decyzji przez urzędnika lub jego przełożonego. Potrzebne jest wprowadzenie okresowej ewaluacji działania systemu, która odpowiadałaby na pytania dotyczące realizacji zakładanych celów oraz istnienie i ewentualne skalę zagrożeń praw obywatelskich (szczególnie ochrony danych osobowych i równego traktowania). Wyniki ewaluacji oraz dane statystyczne, na podstawie których dokonywano oceny, powinny być dostępne publicznie. Z dokumentów dotyczących profilowania powinny zniknąć wszystkie sformułowania, które oparte są na stereotypach i mogą uzasadniać działania prowadzące do stygmatyzacji i dyskryminacji. W dalszej perspektywie czasowej należy zastanowić się nad mechanizmem niezależnej oceny (dokonywanej np. przez Generalnego Inspektora Ochrony Danych Osobowych czy Rzecznika Praw Obywatelskich), która warunkowałaby możliwość wykorzystania automatycznego mechanizmu podejmowania decyzji przez instytucje publiczne. Ocena taka powinna brać pod uwagę zagrożenie dla praw obywatelskich – szczególnie dla ochrony danych osobowych – i ryzyko dyskryminacji. Opracowanie: Jędrzej Niklas Fundacja Panoptykon Autor Linki i dokumenty Profiling the Unemployed in Poland: Social and Political Implications of Algorithmic Decision Making4.43 MBpdf Temat profilowanie polityka społeczna dane osobowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Poradnik Dane osobowe na zdjęciu, czyli RODO a ochrona wizerunku W 2019 r. cyfrowy aparat o rozdzielczości kilku megapikseli podłączony do Internetu ma w kieszeni już prawie każde dziecko. Dzięki trwającej w tle synchronizacji zdjęcia w ułamku sekund trafiają na chmurę. Ale czy robiąc innej osobie zdjęcie komórką, przetwarzasz jej dane osobowe? Kiedy… 16.07.2019 Tekst Artykuł [zaktualizowane] PESEL potrzebny do wypożyczenia roweru miejskiego? Mieszkańcy miast coraz chętniej przesiadają się na rowery. W samej Warszawie z systemu Veturilo korzysta już ponad pół miliona użytkowników, a przez ostatnich pięć lat rowery wypożyczano aż 11 milionów razy. Rosnąca (również ku naszemu entuzjazmowi) popularność jednośladów powoduje jednak, że ich… 02.09.2019 Tekst Artykuł Dyskryminacja w świecie rządzonym przez dane Technologie oparte na danych nie są neutralne. Decyzje o zbieraniu, analizowaniu i przetwarzaniu konkretnych kategorii informacji są dyktowane czynnikami społecznymi, ekonomicznymi i politycznymi. Takie operacje z wykorzystaniem danych osobowych mogą nie tylko naruszać prywatność, ale też prowadzić… 13.07.2018 Tekst
Profiling the Unemployed in Poland: Social and Political Implications of Algorithmic Decision Making4.43 MBpdf