Artykuł 24.08.2015 5 min. czytania Tekst Image Pamiętacie kontrowersje wokół reformy urzędów pracy i profilowania osób bezrobotnych, która wprowadziła podział szukających pracy na trzy sztywne kategorie? Administracja zapewniała, że dzięki tym zmianom świadczenia będą lepiej dopasowane do potrzeb konkretnych osób, natomiast sami bezrobotni i udzielający im wsparcia urzędnicy alarmowali, że w praktyce bywa różnie. Spór o sens i skutki reformy podsyca brak rzetelnych informacji. Od jakich kryteriów i cech państwo uzależnia zaklasyfikowanie bezrobotnego do danej kategorii, a tym samym pulę dostępnych form wsparcia? Próbowaliśmy się tego dowiedzieć, ale Ministerstwo Pracy i Polityki Społecznej właśnie odmówiło nam dostępu do informacji. W 2014 roku udało nam się uzyskać od Ministerstwa Pracy i Polityki Społecznej kwestionariusz pytań zadawanych w trakcie profilowania w urzędach pracy. Z kolei Dziennik Internautów opublikował podręcznik dla urzędów pracy, który oprócz samych pytań zawierał również spis odpowiedzi. Okazało się wówczas, że w trakcie wywiadu z bezrobotnym system przypisuje każdej odpowiedzi od 0 do 8 punktów, w zależności od zawartych w niej danych (takich jak wiek, płeć, doświadczenie zawodowe, miejsce zamieszkania, stan zdrowia). W lipcu tego roku próbowaliśmy ustalić, w jaki sposób działa ten algorytm, więc zapytaliśmy resort pracy o to, jak dokładnie wygląda punktacja konkretnych informacji. Niestety, Ministerstwo Pracy i Polityki Społecznej uznało, że taka wiedza nie stanowi informacji publicznej. Pomysł na profilowanie bezrobotnych przez urzędy pracy krytykowaliśmy już na wczesnym etapie prac legislacyjnych, przeczuwając, że niesie w sobie duże niebezpieczeństwo błędów lub po prostu niesprawiedliwych decyzji i krzywdzących uproszczeń. Zarzucaliśmy mu niekonstytucyjność, brak przejrzystości i dyskryminacyjny potencjał. W prowadzeniu merytorycznej debaty z Ministerstwem Pracy i Polityki Społecznej przeszkadza nam jednak to, że o samym profilowaniu wciąż wiemy bardzo mało. Pewne jest to, że urząd bierze pod uwagę 24 informacje, m.in. wiek, płeć, doświadczenie i umiejętności zawodowe, motywację, miejsce zamieszkania, powody rejestracji w urzędzie pracy i przyczyny pozostawania bez pracy. Same pytania nie dotyczą spraw intymnych i nie budzą większych zastrzeżeń. Od tego, jakich odpowiedzi udzieli osoba bezrobotna, zależy jednak bardzo dużo, w tym jej realne szanse na zdobycie pracy. Konkretne odpowiedzi przekładają się na liczbę przyznanych punktów, na tej podstawie przydzielony zostaje konkretny profil, a ten z kolei determinuje rodzaj dostępnych form wsparcia. Sęk w tym, że logikę, jaka za tym stoi, zna i rozumie tylko urzędnik. Bezrobotny może tylko zgadywać… Jeśli o przyznaniu lub odmowie świadczeń przesądza algorytm, to kto podejmuje decyzję: urzędnik czy komputer? Jeśli zbieranie, kategoryzacja i analiza danych stają się podstawą decyzji podejmowanych przez instytucje publiczne czy biznes, przejrzystość tego procesu ma fundamentalne znaczenie. Bez niej osoba, której dane są przetwarzane, nie ma szans ocenić, czy w jej przypadku nie dochodzi np. do zakazanej dyskryminacji. Jak ważny jest dostęp do logiki (algorytmu) stojącej za przetwarzaniem danych, pokazuje chociażby przykłady amerykańskiej firmy ubezpieczeniowej Allstate. Korporacji zarzucano, że przy tworzeniu i stosowaniu scoringu ubezpieczeniowego wykorzystuje informacje, które mogą prowadzić do dyskryminacji osób pochodzących z mniejszości afroamerykańskiej i latynoskiej. Jak się okazało, kluczowe znaczenie dla decyzji ubezpieczeniowych miał fakt zamieszkiwania w określonej okolicy. Miejsca, w których tradycyjnie mieszkali przedstawiciele konkretnych mniejszości etnicznych, rzeczywiście były gorzej oceniane. W efekcie osoby pochodzące z „kolorowych” części miast automatycznie otrzymywały oferty droższych polis ubezpieczeniowych. Sprawa ostatecznie zakończyła się ugodą. Bardzo dobrze pokazuje jednak, w jaki sposób logika stojąca za analizą danych i podejmowaniem na tej podstawie decyzji może mieć negatywne, dyskryminujące konsekwencje. Przejrzystość decyzji podejmowanych w oparciu o algorytm w relacji państwo–obywatel ma jeszcze dodatkowy wymiar: pozwala stwierdzić, na ile działania administracji w ogóle mieszczą się w granicach prawa. Zgodnie z polską konstytucją instytucje publiczne mogą działać tylko w oparciu o przepisy prawa. Dotyczy to także zbieranych danych i celów, w jakich są analizowane. Odnosząc tę zasadę do urzędów pracy – wolno im zbierać tylko takie informacje i tylko w takich celach, jakie przewiduje odpowiednia ustawa. Co się zmienia, kiedy dane są łączone i analizowane przez komputer, który na tej podstawie automatycznie generuje istotne dla osoby rozstrzygnięcie? Czy nadal jest to decyzja urzędnika, czy nowa czynność, dla której nie ma podstawy prawnej? To przepisy prawa, a nie algorytm, powinny determinować prawo do zasiłku i określać warunki jego przyznania – np. odpowiedni wiek, niski dochód czy liczbę posiadanych dzieci. W sytuacji, gdy tak istotna decyzja jest podejmowana w oparciu o wynik automatycznych operacji, przejrzystość i przewidywalność działania administracji ulega zachwianiu. Czy zatem stosowanie algorytmów w polityce publicznej powinno być zakazane? Niekoniecznie. Odpowiedź na to pytanie jest bardziej złożona: sami nadal się zastanawiamy nad gwarancjami i regułami, jakie powinny towarzyszyć profilowaniu obywateli przez administrację państwową. Co do zasady można jednak przyjąć, że przejrzysty algorytm, który jest niczym więcej jak tylko przełożeniem kryteriów określonych w istniejących przepisach prawnych (dotyczących np. przyznania wsparcia socjalnego), nie budzi kontrowersji. Natomiast gdy działanie algorytmu opiera się na nieznanych kryteriach, które nie wynikają bezpośrednio z przepisów prawa, w relacji obywatel–państwo pojawia się niepewność i poważny problem. Jędrzej Niklas, Katarzyna Szymielewicz Fundacja Panoptykon Autor Temat profilowanie bazy danych Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Skargi na Google’a i IAB trafiły już do 15 krajów Walka z nieprzejrzystymi praktykami firm z branży reklamy interaktywnej toczy się nie tylko w Polsce, gdzie zapoczątkowały ją nasze skargi na Google’a i IAB – nieformalnych regulatorów rynku. Analogiczne skargi trafiły łącznie aż do 14 innych organów ochrony danych, m.in. w Irlandii, Niemczech,… 04.06.2019 Tekst Artykuł Reklama polityczna na Facebooku: zmowa milczenia Polskie partie polityczne nie korzystają z precyzyjnego kierowania komunikatów do wyborców na Facebooku, ale to nie powód do odetchnięcia z ulgą. Od skandalu Cambridge Analytica minęły niemal dwa lata, ale narzędzia wprowadzone przez Facebooka, które miały pozwolić na większą przejrzystość reklam… 27.04.2020 Tekst Artykuł Nie masz wpływu na to, co obejrzysz na YouTubie Łapka w górę, łapka w dół, klikanie „nie interesuje mnie to” i „nie polecaj kanału”, a nawet próby zostawiania fałszywych tropów, żeby zmylić algorytm – wszystko na nic. YouTube lepiej wie, jakie treści chcesz obejrzeć, i nie zmienia łatwo zdania pod wpływem twojego widzimisię. Eksperyment Mozilla… 18.11.2022 Tekst