Za zasłoną algorytmu

Artykuł
24.08.2015
5 min. czytania
Tekst
Image
Element dekoracyjny

Pamiętacie kontrowersje wokół reformy urzędów pracy i profilowania osób bezrobotnych, która wprowadziła podział szukających pracy na trzy sztywne kategorie? Administracja zapewniała, że dzięki tym zmianom świadczenia będą lepiej dopasowane do potrzeb konkretnych osób, natomiast sami bezrobotni i udzielający im wsparcia urzędnicy alarmowali, że w praktyce bywa różnie. Spór o sens i skutki reformy podsyca brak rzetelnych informacji. Od jakich kryteriów i cech państwo uzależnia zaklasyfikowanie bezrobotnego do danej kategorii, a tym samym pulę dostępnych form wsparcia? Próbowaliśmy się tego dowiedzieć, ale Ministerstwo Pracy i Polityki Społecznej właśnie odmówiło nam dostępu do informacji.

W 2014 roku udało nam się uzyskać od Ministerstwa Pracy i Polityki Społecznej kwestionariusz pytań zadawanych w trakcie profilowania w urzędach pracy. Z kolei Dziennik Internautów opublikował podręcznik dla urzędów pracy, który oprócz samych pytań zawierał również spis odpowiedzi. Okazało się wówczas, że w trakcie wywiadu z bezrobotnym system przypisuje każdej odpowiedzi od 0 do 8 punktów, w zależności od zawartych w niej danych (takich jak wiek, płeć, doświadczenie zawodowe, miejsce zamieszkania, stan zdrowia). W lipcu tego roku próbowaliśmy ustalić, w jaki sposób działa ten algorytm, więc zapytaliśmy resort pracy o to, jak dokładnie wygląda punktacja konkretnych informacji. Niestety, Ministerstwo Pracy i Polityki Społecznej uznało, że taka wiedza nie stanowi informacji publicznej.

Pomysł na profilowanie bezrobotnych przez urzędy pracy krytykowaliśmy już na wczesnym etapie prac legislacyjnych, przeczuwając, że niesie w sobie duże niebezpieczeństwo błędów lub po prostu niesprawiedliwych decyzji i krzywdzących uproszczeń. Zarzucaliśmy mu niekonstytucyjność, brak przejrzystości i dyskryminacyjny potencjał. W prowadzeniu merytorycznej debaty z Ministerstwem Pracy i Polityki Społecznej przeszkadza nam jednak to, że o samym profilowaniu wciąż wiemy bardzo mało. Pewne jest to, że urząd bierze pod uwagę 24 informacje, m.in. wiek, płeć, doświadczenie i umiejętności zawodowe, motywację, miejsce zamieszkania, powody rejestracji w urzędzie pracy i przyczyny pozostawania bez pracy. Same pytania nie dotyczą spraw intymnych i nie budzą większych zastrzeżeń. Od tego, jakich odpowiedzi udzieli osoba bezrobotna, zależy jednak bardzo dużo, w tym jej realne szanse na zdobycie pracy. Konkretne odpowiedzi przekładają się na liczbę przyznanych punktów, na tej podstawie przydzielony zostaje konkretny profil, a ten z kolei determinuje rodzaj dostępnych form wsparcia. Sęk w tym, że logikę, jaka za tym stoi, zna i rozumie tylko urzędnik. Bezrobotny może tylko zgadywać…

Jeśli o przyznaniu lub odmowie świadczeń przesądza algorytm, to kto podejmuje decyzję: urzędnik czy komputer?

Jeśli zbieranie, kategoryzacja i analiza danych stają się podstawą decyzji podejmowanych przez instytucje publiczne czy biznes, przejrzystość tego procesu ma fundamentalne znaczenie. Bez niej osoba, której dane są przetwarzane, nie ma szans ocenić, czy w jej przypadku nie dochodzi np. do zakazanej dyskryminacji. Jak ważny jest dostęp do logiki (algorytmu) stojącej za przetwarzaniem danych, pokazuje chociażby przykłady amerykańskiej firmy ubezpieczeniowej Allstate. Korporacji zarzucano, że przy tworzeniu i stosowaniu scoringu ubezpieczeniowego wykorzystuje informacje, które mogą prowadzić do dyskryminacji osób pochodzących z mniejszości afroamerykańskiej i latynoskiej. Jak się okazało, kluczowe znaczenie dla decyzji ubezpieczeniowych miał fakt zamieszkiwania w określonej okolicy. Miejsca, w których tradycyjnie mieszkali przedstawiciele konkretnych mniejszości etnicznych, rzeczywiście były gorzej oceniane. W efekcie osoby pochodzące z „kolorowych” części miast automatycznie otrzymywały oferty droższych polis ubezpieczeniowych. Sprawa ostatecznie zakończyła się ugodą. Bardzo dobrze pokazuje jednak, w jaki sposób logika stojąca za analizą danych i podejmowaniem na tej podstawie decyzji może mieć negatywne, dyskryminujące konsekwencje.

Przejrzystość decyzji podejmowanych w oparciu o algorytm w relacji państwo–obywatel ma jeszcze dodatkowy wymiar: pozwala stwierdzić, na ile działania administracji w ogóle mieszczą się w granicach prawa. Zgodnie z polską konstytucją instytucje publiczne mogą działać tylko w oparciu o przepisy prawa. Dotyczy to także zbieranych danych i celów, w jakich są analizowane. Odnosząc tę zasadę do urzędów pracy – wolno im zbierać tylko takie informacje i tylko w takich celach, jakie przewiduje odpowiednia ustawa. Co się zmienia, kiedy dane są łączone i analizowane przez komputer, który na tej podstawie automatycznie generuje istotne dla osoby rozstrzygnięcie? Czy nadal jest to decyzja urzędnika, czy nowa czynność, dla której nie ma podstawy prawnej? To przepisy prawa, a nie algorytm, powinny determinować prawo do zasiłku i określać warunki jego przyznania – np. odpowiedni wiek, niski dochód czy liczbę posiadanych dzieci. W sytuacji, gdy tak istotna decyzja jest podejmowana w oparciu o wynik automatycznych operacji, przejrzystość i przewidywalność działania administracji ulega zachwianiu.

Czy zatem stosowanie algorytmów w polityce publicznej powinno być zakazane? Niekoniecznie. Odpowiedź na to pytanie jest bardziej złożona: sami nadal się zastanawiamy nad gwarancjami i regułami, jakie powinny towarzyszyć profilowaniu obywateli przez administrację państwową. Co do zasady można jednak przyjąć, że przejrzysty algorytm, który jest niczym więcej jak tylko przełożeniem kryteriów określonych w istniejących przepisach prawnych (dotyczących np. przyznania wsparcia socjalnego), nie budzi kontrowersji. Natomiast gdy działanie algorytmu opiera się na nieznanych kryteriach, które nie wynikają bezpośrednio z przepisów prawa, w relacji obywatel–państwo pojawia się niepewność i poważny problem.

Jędrzej Niklas, Katarzyna Szymielewicz

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.