Artykuł 31.05.2022 11 min. czytania Tekst Image Algorytmy nadzorujące pracę i przydzielające zadania są codziennością coraz większej grupy pracowników. Pandemia Covid-19 przyzwyczaiła do elektronicznego szefa osoby pracujące za biurkiem, ale technologicznego nadzoru od lat doświadczali już pracownicy i pracowniczki branży logistycznej, call center czy magazynów. Niektórzy co prawda przekonują, że algorytmiczne zarządzanie zwiększa efektywność pracy, jednak pracownicy i związki zawodowe coraz częściej głośno mówią o negatywnych doświadczeniach związanych chociażby z wyśrubowanymi normami wydajności czy nieprzejrzystymi zasadami ustalania wynagrodzeń w tak zautomatyzowanej pracy. Problemy zaczynają dostrzegać również politycy, którzy wyszli z konkretnymi pomysłami na regulacje mające zagwarantować pracownikom i pracowniczkom lepszą ochronę przed nieprzejrzystymi i niesprawiedliwymi algorytmami. W Polsce sejmowy klub Lewicy, inspirowany rozwiązaniami już funkcjonującymi w Hiszpanii, proponuje przyznanie związkom zawodowym dostępu do parametrów algorytmów stosowanych wobec pracowników i pracowniczek. Krok dalej idzie Unia Europejska, która w grudniu 2021 r. zaproponowała projekt dyrektywy o pracy platformowej. Regulowałaby ona wykorzystywanie algorytmów wobec osób zatrudnionych przez aplikacje takie jak Uber czy Glovo. Poza sektorowymi regulacjami w UE toczą się także intensywne prace nad przepisami o sztucznej inteligencji (AI Act), także tej stosowanej do zarządzania pracownikami. Praca w aplikacji – samozatrudnienie na niby? Pracownicy, którzy znaleźli się pod nadzorem algorytmów, skarżą się na niezrozumiałe i niesprawiedliwe zasady działania systemów, które przecież decydują o tym, ile zarobią, jakie dostaną zlecenie i jak szybko będą zmuszeni pracować. Poczucie bycia „na łasce” algorytmu jest jeszcze większe w przypadku tzw. pracy platformowej, w ramach której zlecenia są przydzielane, monitorowane i wynagradzane za pośrednictwem internetowej aplikacji, bez bezpośredniego kontaktu z człowiekiem (ani z klientem, ani z pośrednikiem). Wedle szacunków Komisji Europejskiej w taki sposób pracuje aż 28 mln osób w UE. Tej formie bardzo często towarzyszą prekaryjne warunki pracy, w których z pracownikiem lub pracowniczką łatwo się rozstać, bo forma umowy nie przewiduje gwarancji, jakie znamy z kodeksu pracy. Aż 90% dostępnych w UE platform klasyfikuje ludzi jako samozatrudnionych, mimo że – jak podnoszą osoby zatrudnione przez aplikacje – relacje między nimi a dostawcą platformy przypominają tradycyjny stosunek pracy. Na przykład platformy często dyktują warunki wynagrodzenia, ustalają minimalne standardy jakości obsługi klientów, automatycznie przydzielają zlecenia, organizują czas pracy oraz monitorują i oceniają pracowników, co ostatecznie decyduje o liczbie otrzymywanych zleceń. Pracownicy przeciwko algorytmom W maju 2021 r. sprzeciw wobec niesprawiedliwych algorytmów decydujących o wynagrodzeniach wyprowadził na ulice kurierów Glovo w Gdańsku i Białymstoku. Powodem strajku, który polegał na nierealizowaniu przyjętych zleceń, była zmiana algorytmu ustalającego wynagrodzenia: Glovo przestało naliczać zapłatę za dojazd do restauracji, z których kurierzy odbierają zamówienia – naliczało ją tylko za dojazd od restauracji do klienta, co znacząco obniżyło zarobki. Glovo nie konsultowało tych zmian z kurierami, a tych, którzy strajkowali, zablokowało w aplikacji. Głośno o problemach algorytmicznego ustalania i mierzenia wydajności m.in. w polskich magazynach Amazona mówią pracownicy zrzeszeni w OZZ Inicjatywa Pracownicza. Amazon stosuje algorytm, który monitoruje i ocenia szybkość pracy. Jeśli dana osoba nie zrealizuje oczekiwanego minimum, otrzymuje ostrzeżenie, a po trzecim ostrzeżeniu może zostać zwolniona. Problem w tym, że normy wyznaczone przez Amazon są wyśrubowane, a zasady, jakimi kieruje się algorytm, są nieprzejrzyste i zmieniane z miesiąca na miesiąc, bez jakichkolwiek konsultacji z pracownikami. Lewica: związki zawodowe z dostępem do parametrów algorytmu Problemy podnoszone przez pracowników zarządzanych przez algorytmy coraz wyraźniej przebijają się do świadomości polskich polityków i polityczek. Dyskutowano o nich chociażby w ramach sejmowej podkomisji ds. algorytmów cyfrowych, w której posiedzeniach regularnie uczestniczymy. Efektem jest niedawna propozycja Lewicy, mająca na celu wzmocnienie pozycji związków zawodowych wobec pracodawców stosujących nadzorcze algorytmy. Projekt zmian w ustawie o związkach zawodowych nie trafił jeszcze do Sejmu, ale najnowsza wersja zakłada przyznanie związkom prawa dostępu do „parametrów, zasad i instrukcji, na których opierają się algorytmy lub systemy sztucznej inteligencji, które mają wpływ na podejmowanie decyzji, które mogą mieć wpływ na warunki pracy, dostęp do zatrudnienia i jego utrzymanie, w tym profilowanie”. To rozwiązanie miałoby ułatwić reagowanie na niesprawiedliwe lub naruszające BHP założenia algorytmu, a pracownikom i pracowniczkom zapewnić jasność co do stawianych im oczekiwań. W naszej ocenie ta propozycja idzie w dobrym kierunku, ale – jak zresztą przyznają projektodawcy – to dopiero pierwszy krok. Dostęp związków zawodowych do zasad działania algorytmów stosowanych wobec pracowników i pracowniczek to absolutne minimum. To też ważne uzupełnienie przepisów RODO, które zobowiązują do informowania o logice algorytmu wyłącznie w sytuacji, gdy algorytm podejmuje decyzje bez udziału człowieka, podczas gdy w wielu przypadkach rekomendacje algorytmu są teoretycznie weryfikowane (a w praktyce zazwyczaj potwierdzane) przez ludzkiego menedżera. Jednak biorąc pod uwagę to, że w Polsce mamy do czynienia z niskim poziomem uzwiązkowienia, wydawałoby się zasadne, by wszyscy pracownicy i pracowniczki – nie tylko ci zrzeszeni w związkach – mogli uzyskać informacje o funkcjonowaniu algorytmów wpływających na ich warunki pracy. Nie ulega wątpliwości, że informacja o podstawowych założeniach, na jakich opiera się algorytm, jest niezbędna do tego, by kontrolować nadużycia i egzekwować prawo. Ale naruszaniu praw pracowniczych i przepisów o ochronie danych mogłaby zapobiec interwencja pracowników lub ich reprezentantów jeszcze przed wdrożeniem algorytmu. Brak konsultacji przed wprowadzaniem zmian w algorytmach np. organizujących pracę lub wyliczających wynagrodzenie jest jednym z głównych problemów zgłaszanych przez osoby poddawane działaniu algorytmu. Dlatego widzimy potrzebę idącej dalej regulacji, która zobowiązywałaby np. do przeprowadzenia konsultacji z pracownikami i pracowniczkami oraz do przeprowadzenia oceny wpływu projektowanego rozwiązania na ich sytuację. Unia Europejska chce uregulować prace „przez aplikacje” Nawet jeśli propozycja Lewicy nie zawiera docelowych rozwiązań, bardziej kompleksowa regulacja, przynajmniej dla osób, które pracują za pośrednictwem aplikacji (tzw. pracowników platformowych) – to wyłącznie kwestia czasu. W grudniu 2021 r. za regulację „gig economy”, czyli systemu pracy „od zlecenia do zlecenia”, wzięła się Unia Europejska. Komisja Europejska przedstawiła projekt dyrektywy w sprawie poprawy warunków pracy za pośrednictwem platform internetowych, a zakłada on: uregulowanie statusu osób zatrudnionych przez aplikacje (przez stworzenie kryteriów pozwalających stwierdzić, czy platforma jest pracodawcą); zwiększenie przejrzystości parametrów stosowanych algorytmów (nie tylko dla związków zawodowych, ale dla każdej zatrudnionej osoby); zapewnienie monitorowania działania algorytmów przez człowieka; prawo do wyjaśnienia i zakwestionowania decyzji (nawet tej półautomatycznej, czyli wydanej przez człowieka na podstawie rekomendacji algorytmu); obowiązek konsultowania pracowników przed wprowadzeniem algorytmu; obowiązek ciągłego monitorowania wpływu algorytmu na prawa pracowników. Na ostateczny efekt jeszcze trochę poczekamy: prace nad dyrektywą trwają, a po jej przyjęciu przez instytucje unijne państwa członkowskie będą miały jeszcze 2 lata na jej wdrożenie do krajowych przepisów. Pozostaje też dylemat: dlaczego powyższe zasady miałyby się stosować tylko wobec pracowników i pracowniczek platformowych, a nie wszystkich poddanych działaniu algorytmów. Czy unijny akt o AI ochroni wszystkich pracowników przed algorytmicznym szefem? Ten ostatni problem może rozwiązać unijny akt o sztucznej inteligencji, który będzie regulował wykorzystanie wszelkich systemów AI do zarządzania pracownikami i pracowniczkami. Jednak żeby ta regulacja faktycznie wzmacniała pozycję osób nadzorowanych przez algorytmy, potrzebne są w niej daleko idące zmiany (szczegółowo pisaliśmy o nich w innych tekstach). Podsumowując, widzimy konieczność ulepszeń polegających na: wprowadzeniu obowiązku oceny wpływu algorytmu na prawa pracowników przez podmioty wdrażające system (a nie tylko tworzące go); opublikowaniu wyników tej oceny wraz z informacjami o podstawowych założeniach, celach, logice systemu i kluczowych decyzjach projektowych – wraz z uzasadnieniem; wprowadzeniu prawa do wyjaśnienia decyzji podejmowanych w indywidualnych sprawach z wykorzystaniem systemu; wprowadzeniu prawa do skargi, jeśli system naruszył prawa pracownika lub pracowniczki (w tym do reprezentacji przez organizację pozarządową lub związek zawodowy); umożliwieniu organizacjom i związkom zgłaszania naruszających prawo systemów bezpośrednio do organów nadzorczych, nawet jeśli pracownik lub pracowniczka – na przykład ze względu na obawę przed reperkusjami – nie złoży skargi indywidualnej. Karolina Iwańska Współpraca: Dominika Chachuła, Anna Obem Polecamy: Panoptykon 4.0: Sztuczna inteligencja non-fiction Panoptykon: Sztuczna inteligencja non-fiction Panoptykon: O co walczymy w unijnej regulacji AI? 5 postulatów Anna Obem Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa Europosłowie nie zdecydowali się na całkowite zakazanie inwigilacji biometrycznej w przestrzeni publicznej ani na przyznanie prawa do uzyskania wyjaśnienia osobom poszkodowanym decyzją podjętą z udziałem AI, niezależnie od kategorii systemu – co postulowały organizacje społeczne. Ale są też… 15.06.2023 Tekst Artykuł AI Act zaczyna obowiązywać. Co ostudzi tech optymizm polskich władz? [komentarz] 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz. 02.08.2024 Tekst Artykuł UE reguluje sztuczną inteligencję: znamy pierwsze poprawki do AI Act Poznaliśmy pierwsze propozycje poprawek do unijnego aktu o sztucznej inteligencji – pierwszego takiego prawa na świecie. Zaproponowane zmiany idą w dobrą stronę, ale nie wystarczą, żeby powstająca regulacja w przyszłości skutecznie chroniła nas przed szkodliwym wykorzystaniem AI. 29.04.2022 Tekst