Nie bóg, nie big, po prostu tech. Czas wyrównać relacje władzy [wywiad]

Artykuł
19.03.2026
30 min. czytania
Tekst
Image
Ludzie używający telefonu w tramwaju

Rozmowa Sylwii Czubkowskiej z Dorotą Głowacką, prawniczką i aktywistką Fundacji Panoptykon.

Sylwia Czubkowska: Wolnością słowa i funkcjonowaniem mediów zajmujesz się od kilkunastu lat. Jak przez ten czas zmieniała się – i czy w ogóle się zmieniała –twoja percepcja tego, czym jest wolność słowa, czym jest cenzura, jaka jest nasza odpowiedzialność za słowo i jaka jest odpowiedzialność takich instytucji jak Fundacja Panoptykon w walce o te wolności w imieniu obywateli?

Dorota Głowacka: Sporo się zmieniło. Przede wszystkim dlatego, że dziś w kwestii wolności słowa zupełnie kto inny rozdaje karty niż w roku 2010, gdy zaczynałam pracę w programie Obserwatorium Wolności Mediów w Fundacji Helsińskiej. Wówczas koncentrowaliśmy się głównie na zagrożeniach dla wolności słowa ze strony państwa: karaniu dziennikarzy za zniesławienie, inwigilacji przez służby specjalne, upolitycznieniu mediów publicznych. To były kluczowe wątki.

Jakiś czas temu jednak na scenę wkroczyły korporacje technologiczne, które dziś w praktyce kontrolują przepływ informacji w dużo większym stopniu niż państwa. Z jednej strony oferują demokratyzację komunikacji; przekonują, że każdy może mieć dostęp do wiedzy i wyrażać swoje zdanie. Z drugiej – arbitralnie moderują treści i według własnych, niejawnych standardów wyznaczają granice swobody wypowiedzi. To ich działalność stała się dziś największym wyzwaniem dla wolności słowa. Co więcej: ich model biznesowy systemowo przyczynia się do erozji jakościowych mediów.

Wymieniłaś jako tematy sprzed lat: niezależność dziennikarską w obliczu procesów o zniesławienie, inwigilację, upolitycznienie mediów publicznych – a przecież to wszystko wciąż jest bardzo aktualne. Wcale nie stało się mniej bolesne.

Dlatego Panoptykon w żadnym razie nie traci z pola widzenia działań państwa i zagrożeń, które z nich wynikają. Wciąż ważnym filarem naszej pracy jest dążenie do ograniczenia inwigilacji czy wprowadzenie kontroli służb. Ale to już jest po prostu za mało. Równie ważne stało się dla nas kontrolowanie korporacji technologicznych.

Czyli ten dzisiejszy panoptykon wygląda inaczej niż ten, który wyobrażaliśmy sobie przez lata: już nie jedno więzienie, w którym państwo jest strażnikiem, a my pilnującymi się nawzajem więźniami. Teraz tych strażników jest znacznie więcej – a władza korporacyjna potrafi być bardziej opresyjna niż państwowa. Taka świadomość jest dla ludzi trudna. Pozbawia złudzeń, że technologie dają nam więcej wolności.

Jest trudna, nawet bardzo trudna, bo to w technologiach przecież wiele społeczeństw szukało wsparcia w ograniczaniu nadużywania władzy przez autorytarne rządy. A dziś, w epoce big techów, zagrożenia płyną także z tego kierunku. I nagle, by chronić obywateli i obywatelki przed rosnącą dominacją cyberkorporacji, musimy się zwracać ku państwu i jego pomocy. Oczywiście aparat państwowy (zwłaszcza tam, gdzie rządzą demogodzy) nadal jest źródłem opresji, szczególnie jeżeli sam korzysta z zaawansowanych technologii. Ale wobec rosnącej potęgi cyfrowych korporacji to właśnie w stronę instytucji państwowych – a jeszcze bardziej instytucji Unii Europejskiej jako silniejszych i dyplomatycznie, i ekonomicznie – kierujemy swoje kroki, szukając opieki. To one stają się potrzebnym gwarantem ochrony, bo przecież jako jednostki jesteśmy w starciu z cyberkorporacjami bez większych szans.

Ale przecież te korporacje też mają swoje zasady działania, kodeksy dobrych praktyk, specjalnie powoływane rady, które mają dbać o etykę. Co więcej: ogromna ich część powstawała, obiecując dobrą zmianę w prowadzeniu biznesu i większe skupienie się nie tylko na nim, ale i na otoczeniu, czyli ludziach.

A mimo to dziś w wielu obszarach nie traktują nas podmiotowo, tylko – jak to mówimy w Panoptykonie – jak biomasę mieloną na dane. Lata prób prowadzenia dialogu i szukania miękkich rozwiązań (typu kodeksy dobrych praktyk) pokazały też, że bez twardej ingerencji państwa nie ma co liczyć na to, że te korporacje same się wyregulują i zaczną szanować nasze prawa.

Dlatego wolę, by o granicach mojej wolności słowa decydowały instytucje będące reprezentacją demokratycznie wybranej władzy – nawet jeśli nie zawsze mi się podobają – a nie prezesi, inżynierowie i algorytmy podporządkowane celom wzrostu i zysków korporacji.

Ale by te instytucje faktycznie były pomocne, same muszą być kontrolowane i gotowe słuchać krytycznych, konstruktywnych głosów. Nie mamy innego wyjścia. Niestety, musimy motywować państwa, by stanęły po stronie obywateli. Musimy przy tym cały czas zachowywać czujność, sprawdzając, czy aby nie próbują cynicznie wykorzystać sytuacji do np. zwiększenia kontroli politycznej nad Internetem. To zatem ciągłe balansowanie między Scyllą a Charybdą.

Musimy motywować państwa, by stanęły po stronie obywateli. Musimy przy tym cały czas zachowywać czujność, sprawdzając, czy aby nie próbują cynicznie wykorzystać sytuacji do np. zwiększenia kontroli politycznej nad Internetem.

Mówisz „niestety”, a może to jednak dobrze? Może to czas na odbudowę wspólnoty państwowej? Ludzie jako istoty społeczne potrzebują punktu oparcia, kotwicy. Potrzebujemy w coś wierzyć. Może to moment, w którym państwo, jego instytucje i – no cóż, przynajmniej po części – politycy mają szansę odzyskać nasze zaufanie? Jak państwo może nam pomóc?

Żeby przywrócić nam ochronę, najważniejsze jest – jak sama powiedziałaś – odzyskanie zaufania. Zbudowanie takiej pozycji instytucji publicznych, by ludzie widzieli w nich obrońców swoich praw, a nie narzędzie do realizowania interesów politycznych którejś frakcji.

Kluczem wydaje się wprowadzenie silnych gwarancji samoograniczających i zabezpieczających przed wykorzystywaniem nowych uprawnień do np. „sprzątania Internetu” na polityczne zamówienie. Szczęśliwie w demokratycznym państwie istnieją różne instytucjonalne bezpieczniki, jak choćby kontrola sądu nad decyzjami urzędników, odpowiednie procedury realizujące zasadę „równości broni” (czyli założenie, że każda ze stron ma równe prawa w postępowaniu), gwarancja bycia wysłuchanym – czy wreszcie mechanizmy zapewniające pewien poziom kontroli społecznej nad takimi działaniami. Co prawda takie bezpieczniki nigdy nie wyeliminują całkowicie ryzyka nadużycia władzy, ale mogą je bardzo istotnie ograniczyć.

Czy pamiętasz konkretne wydarzenie, które uświadomiło ci, że równowaga sił zaczyna się przesuwać w stronę korporacji cyfrowych?

Ponieważ wywodzę się ze środowiska ludzi walczących o wolność słowa, pierwszym obszarem, któremu zaczęłam się przyglądać, była tzw. prywatna cenzura. Pamiętam trzy sprawy, które uświadomiły mi skalę problemu. Pierwsza to zablokowanie obrazu Gustave’a Courbeta Pochodzenie świata: Facebook usunął konto nauczyciela, który udostępnił zdjęcie tego dzieła. Druga dotyczyła organizacji feministycznej z Australii, której wydarzenie z reklamą przedstawiającą modelkę plus size zostało usunięte pod pretekstem „naruszenia standardów społeczności dotyczących zdrowego stylu życia”. Trzecia – ta, która przelała czarę goryczy – to zablokowanie słynnego zdjęcia Napalm girl z czasów wojny wietnamskiej, symbolu okrucieństwa tej wojny, na profilu pewnej norweskiej gazety.

To wszystko działo się ok. 10 lat temu. Zaczęło wtedy narastać coraz silniejsze poczucie, że to nie są przypadkowe incydenty. Blokowane były przecież nie tylko zdjęcia z wakacji, ale też sztuka, treści organizacji społecznych i mediów. Zrozumiałam, że jesteśmy świadkami cichego, oddolnego przejmowania zasad prowadzenia debaty publicznej – i że dzieje się to w interesie korporacji, ich wygody, ich spokoju i ich zysków. Wtedy też zaczęliśmy w Panoptykonie przyglądać się sytuacji w Polsce. Szukaliśmy sprawy, która mogłaby ten problem unaocznić także u nas, a także pozwoliłaby się zastanowić, czy istnieje jakaś strategia prawna, by tę prywatną cenzurę skutecznie zakwestionować.

Faktycznie przyszedł moment, gdy (ban po banie, ekspert po ekspercie…) zaczęliśmy dostrzegać, że nie mamy już do czynienia z klasycznymi mediami społecznościowymi. To, jak działają i jaki mają wpływ na procesy komunikacyjne czy biznesowe, dawno przekroczyło pierwotne ramy. Coraz jaśniejsze stawało się, jak bardzo ludzie są wobec nich bezsilni – jednostka stała się niczym. A przecież jeszcze niedawno te platformy miały dawać niespotykaną swobodę, a nawet wspierać powstawanie nowych demokracji, jak nam się wydawało po tzw. twitterowych rewolucjach w państwach arabskich.

Moment, w którym chyba wszyscy zrozumieliśmy, że obserwowane w coraz większym natężeniu negatywne skutki funkcjonowania wielkich platform to nie seria przypadków i pomyłek, ale efekt samego modelu biznesowego, przyniosła afera Cambridge Analytica. To była pierwsza duża sprawa, która pokazała, jak ogromny wpływ mogą mieć algorytmy personalizujące – już nie tylko na nasze wybory konsumenckie, ale także polityczne.

Chwilę później problem targetowanej reklamy dotknął mnie osobiście. Zaszłam w ciążę, a równolegle trwała kampania do Parlamentu Europejskiego. I nagle zaczęłam dostawać profilowane reklamy polityczne od jednego ugrupowania. Wszystkie dotyczyły tematów okołoporodowych: badań prenatalnych, opieki nad kobietami w ciąży (oczywiście obok typowych reklam kaszek, soczków czy banków komórek macierzystych).

To właśnie te polityczne reklamy uderzyły mnie najmocniej. Na własnej skórze doświadczyłam tego, że platformy umożliwiają nie tylko firmom, ale też partiom politycznym wykorzystywanie danych o naszych najbardziej intymnych przeżyciach dla własnego zysku. Nawet jeśli w moim przypadku nie miało to realnego wpływu na mój głos w wyborach, to wiem, jak łatwo można podatną osobę zmanipulować (np. właśnie w czasie ciąży czy w innym wrażliwym okresie). Przerażająca była też myśl, co mogłaby poczuć kobieta, która po utracie ciąży wciąż dostaje treści okołonoworodkowe, bo algorytmy nie są w stanie tak szybko się zorientować w jej nowej sytuacji. To pokazuje, jak bezduszne potrafią być te systemy i jak głęboko wchodzą w nasze emocje.

Na własnej skórze doświadczyłam tego, że platformy umożliwiają nie tylko firmom, ale też partiom politycznym wykorzystywanie danych o naszych najbardziej intymnych przeżyciach dla własnego zysku.

Wybucha afera Cambridge Analytica, pojawia się termin „prywatna cenzura”, Panoptykon zostaje partnerem prawnym w procesie przeciwko Facebookowi o blokady nakładane na Społeczną Inicjatywę Narkopolityki. Wybuchają kolejne skandale: dotyczące bierności Facebooka i WhatsAppa wobec ludobójstwa w Mjanmie, udziału Google’a w militarnym projekcie Maven, celowego konstruowanie usług tak, by docierały do dzieci i je uzależniały.

Zaczyna się coś w rodzaju społecznego zrywu: trzeba ten technologiczny świat opanować, uregulować, naprawić. W Unii Europejskiej ruszają prace nad aktem o usługach cyfrowych (DSA) i aktem o rynkach cyfrowych (DMA). Wydaje się, że owszem – są problemy, ale zaraz sobie z nimi poradzimy. Wchodzi nowe prawo, więc powinno być bezpieczniej i lepiej. I co – poradziliśmy sobie?

Dosyć szybko okazało się, że przyjęcie regulacji to dopiero początek, a nie koniec drogi. Samo uchwalenie prawa nie wystarczy – trzeba jeszcze intensywnie walczyć o jego skuteczne stosowanie. Dlatego naprawdę jest za wcześnie, by podsumowywać te efekty mobilizacji wokół uregulowania big techów. Wierzę, że te regulacje jeszcze pokażą swój potencjał.

Na razie fakty są takie: prawo jest uchwalone, ale jego wdrożenie wciąż kuleje. Zgodnie z tym, co na papierze, sporo rzeczy powinno już się zmienić; w praktyce – wiele problemów pozostało nierozwiązanych. Choć są też pozytywne sygnały! Na przykład platformy musiały zwiększyć standardy przejrzystości dotyczące moderacji treści, a w Unii powoływane są nowe, niezależne od firm technologicznych organy pozasądowego rozstrzygania sporów, do których użytkownicy mogą się odwołać, zamiast czekać latami na wyrok sądu. Dzięki temu jest szansa, że decyzje platform będą weryfikowane szybciej i skuteczniej.

Szybciej niż w pięć – a nie, przepraszam! – już sześć lat. Tak opieszale toczy się wspomniana sprawa SIN kontra Facebook. Ten proces o zbanowanie stron i grup należących do organizacji, która prowadzi edukację dotyczącą narkotyków, SIN wiosną 2024 r. wygrał. Ale nie do końca. Wyrok nie jest wciąż prawomocny, bo Meta się odwołała.

Tak – i choć sąd orzekł, że Meta, blokując konta i grupy SIN, naruszyła prawo, to wciąż nie przywrócono tych treści. To pokazuje skalę problemu: użytkownik, który traci głos, swoją twórczość czy źródło utrzymania, nie ma szans na faktyczną walkę o sprawiedliwość. Przecież walka latami w przypadku Internetu jest całkowicie oderwana od rzeczywistości.

Nie jest to frustrujące?

Oczywiście, że tak. Czuję sporą frustrację, że system prawny, w którym żyjemy, nie jest wystaraczająco sprawny, i że przepisy, jakie przecież już mamy, czyli DSA, na razie nie przynoszą oczekiwanych efektów. Ale nie poddajemy się. Nadal wierzymy, że to wciąż może być droga do lepszego Internetu. Z pełną świadomością jednak, że to się nie wydarzy samo. Trzeba będzie o egzekwowanie tych przepisów powalczyć – konsekwentnie, wytrwale, krok po kroku.

Widzimy jednak ogromne opory w Polsce wobec DSA. Przede wszystkim przed cenzurą państwową. Ludzie, mając zakorzenione historyczne doświadczenia, obawiają się, że rząd będzie chciał wykorzystać te przepisy do uciszania krytyki. Dziś tę narrację podbija PiS, ale równie dobrze mogłaby to robić PO w odwrotnej sytuacji politycznej. Co można zrobić z tym prawem w realiach tak silnego upolitycznienia?

To fakt, wokół tych przepisów toczy się silna negatywna kampania, choć przecież obowiązują w całej Unii od lutego 2024 r. i na razie nigdzie nie doprowadziły do cenzury. Naprawdę nikt nie wyrywa się tu z podejmowaniem jakichkolwiek pochopnych decyzji. Widać to także w działaniach samej Komisji Europejskiej – są bardzo ostrożne, wręcz zachowawcze. Komisja od miesięcy skupia się na skrupulatnym prowadzeniu swoich postępowań i dotychczas nie ukarała żadnej platformy.

Warto zauważyć, że fala krytyki nasiliła się w momencie, gdy władzę w USA odzyskał Donald Trump, a jego środowisko zaczęło budować mniej lub bardziej formalny sojusz z wielkimi cyberkorporacjami. Duża część narracji o rzekomej „cenzurze DSA” jest inspirowana właśnie przez te środowiska. Nie dajmy się łudzić, że chodzi im o wolność słowa obywateli i obywatelek Polski czy Europy. DSA nakłada obowiązki i koszty związane z ochroną użytkowników i użytkowniczek, ogranicza eksploatowanie naszych danych, co może oznaczać spadki zysków platform. Dlatego warto pamiętać, skąd te narracje się biorą, czyje interesy naprawdę reprezentują i kto faktycznie skorzysta na tym, że te przepisy nie będą działać.

Nie dajmy się łudzić, że chodzi im o wolność słowa obywateli i obywatelek Polski czy Europy. DSA nakłada obowiązki i koszty związane z ochroną użytkowników i użytkowniczek, ogranicza eksploatowanie naszych danych, co może oznaczać spadki zysków platform.

Co my możemy z tym robić? Przede wszystkim pilnujemy, żeby krajowe prawo wdrażające DSA nie wypaczyło idei samego rozporządzania. Staramy się też jak najszerzej mówić o tym, czym naprawdę jest DSA i co reguluje. Oraz odkłamywać najbardziej rozpowszechniane mity.

Jakie narracje czy dezinformacje na temat DSA najczęściej się powtarzają? Co najczęściej musicie prostować?

Najpopularniejszy jest mit o ograniczaniu możliwości krytykowania polityków pod pretekstem walki z dezinformacją. Tyle że DSA koncentruje się na zwalczaniu treści nielegalnych, a nie kontrowersyjnych opinii ani nawet dezinformacji, której duża część (np. różne teorie spiskowe) nie narusza bezpośrednio prawa. Same narzędzia dotyczące tego rodzaju dezinformacji w DSA są dość ograniczone i mniej bezpośrednie. DSA nie daje w każdym razie podstawy do tego, żeby blokować tego rodzaju treści. W ogóle powiedzmy jasno: DSA nie daje ani Komisji Europejskiej, ani poszczególnym koordynatorom usług cyfrowych prawa do blokowania konkretnych treści czy całych platform.

Według innej popularnej narracji DSA wprowadza obowiązkową weryfikację wieku przy pomocy unijnej aplikacji lub logowania się do platform przez dowód osobisty. Jest w tym ziarno prawdy, bo temat weryfikacji wieku rzeczywiście się pojawia w kontekście ochrony dzieci – ale w samym DSA nie ma prostego wymogu logowania się przy użyciu dokumentów tożsamości. Co ciekawe, nasz tekst wyjaśniający te kwestie był jednym z najczęściej czytanych na stronie Panoptykonu. To pokazuje, że ludzie szukają rzetelnych informacji i próbują zrozumieć, jak to naprawdę działa.

Wspomniałaś o straszeniu logowaniem się dowodem, ale w Unii pojawiają się też inne, w ocenie wielu osób niepokojące, pomysły regulacyjne. Jak choćby projekt Chat Control, który w ramach walki z pedofilią w sieci zakłada kontrolowanie komunikatorów, nawet tych szyfrowanych end-to-end. Wszystko to razem może wyglądać jak atak określonych opcji politycznych na nasze wolności. Jak w takiej atmosferze mówić o trudnych, a może nawet nudnych niuansach prawnych?

Staramy się to robić przez konkretne ludzkie historie. Tak jak w naszej kampanii o algorytmach traumy. Opisywaliśmy w niej historię matki, która walczyła z zaburzeniami lękowymi na tle zdrowotnym i została bardzo precyzyjnie stargetowana przez algorytmy Facebooka. Zaczęła dostawać dziesiątki niepokojących postów o śmierci, chorobach i wypadkach dorosłych i dzieci, co tylko pogłębiało jej strach.

Kobieta próbowała to zatrzymać, używając przycisku „nie pokazuj mi tego rodzaju treści”. Zaczęliśmy monitorować jej feed przy pomocy specjalnego oprogramowania. Chociaż kliknęła we wspomniany przycisk ponad 120 razy w ciągu tygodnia – nie dało to żadnego efektu. Trafiła w „króliczą norę” algorytmu zaprojektowanego tak, by maksymalizować zaangażowanie, a nie dobrostan użytkownika.

Ten eksperyment przeprowadziliśmy, zanim jeszcze DSA zaczęło obowiązywać; gdy brakowało podstaw prawnych, by zakwestionować takie działania platform. Dziś mamy już odpowiednie narzędzia. Dlatego właśnie prowadzimy szeroko zakrojone badania: chcemy sprawdzić, czy po wejściu w życie DSA mechanizmy takie jak „nie pokazuj mi tego rodzaju treści” faktycznie działają lepiej. Jeśli okaże się, że nadal są nieskuteczne, mamy już instrumenty prawne, by interweniować, w tym decyzje regulatorów, które mogą zmusić platformy do realnych zmian w sposobie działania algorytmów.

Cała nasza rozmowa krąży wokół osi: państwa a big techy. Ale czas najwyższy zapytać: „Co z Polską?”.

(ciężkie westchnienie)

Nie dziwię się, że wzdychasz. Bo trzeba przyznać, że w Polsce strach przed cenzurą skutecznie podbił nam sam rząd. Przygotował takie przepisy wdrażające DSA, że to właśnie wy, w Panoptykonie, jako pierwsi zaczęliście przed nimi ostrzegać.

Niestety tak. Kiedy przyszło do wdrażania DSA, zaproponowano rozwiązania, które niemal wylały dziecko z kąpielą. W Polsce problem nie dotyczył nawet samego DSA, tylko dodatkowej ścieżki, którą rząd próbuje wprowadzić.

Śledziliśmy i konsultowaliśmy projekt od początku, dlatego szybko zauważyliśmy, co się dzieje. Pierwsza wersja ustawy nie budziła większych kontrowersji – wskazywała zgodnie z wymogiem DSA specjalny urząd, czyli krajowego koordynatora usług cyfrowych. W Polsce rząd uznał, że będzie to Prezes UKE. Początkowo nie miał on żadnych kompetencji do blokowania czy odblokowywania treści na platformach. Takie decyzje zgodnie z DSA leżą w gestii wspomnianych już pozasądowych organów rozstrzygania sporów, ewentualnie należy wykorzystać istniejące w danym kraju ścieżki sądowe.

W międzyczasie zapadł wyrok w sprawie SIN, o której już wspominałyśmy. Było widać, że ścieżki sądowe w Polsce są bardzo czasochłonne. Pojawiły się więc pomysły, by polska ustawa wdrażająca DSA wprowadziła skuteczniejszy, sprawniejszy mechanizm nadzoru nad decyzjami moderacyjnymi

Idea brzmiała dobrze, tylko jak to zrobić w praktyce? Najlepszym rozwiązaniem byłaby szybka ścieżka sądowa. Ale w Polsce w ramach konsultacji Ministerstwo Sprawiedliwości podobno jednoznacznie oświadczyło: nierealne przy obecnej niewydolności wymiaru sprawiedliwości. Zatem w resorcie cyfryzacji pojawił się pomysł, by przekazać te uprawnienia Prezesowi UKE.

Gdy zobaczyliśmy pierwszą wersję tych przepisów, od razu podnieśliśmy larum. Nie było w niej żadnych gwarancji ograniczających ryzyko, że Prezes UKE – organ dotąd zajmujący się rynkiem telekomunikacyjnym, bez doświadczenia w sprawach wolności słowa – nie będzie podejmował decyzji w sposób równie arbitralny jak platformy.

Jakich zabezpieczeń brakowało?

Po pierwsze projekt przewidywał bardzo szeroki zakres spraw, którymi miał się zajmować Prezes UKE, z naruszeniami dóbr osobistych włącznie. To powodowało ryzko blokowania krytycznych opinii czy treści po prostu niewygodnych politycznie. Poza tym brakowało realnej kontroli sądowej nad decyzjami Prezesa UKE, której nie zapewniała możliwość odwołania do sądu administracyjnego. Sąd ten zajmuje się przede wszystkim badaniem legalności wydanej decyzji, a nie merytoryczną oceną sporu, czyli tym, czy dana wypowiedź faktycznie przekracza granice wolności słowa. Dodatkowo całe postępowanie miało się odbywać bez udziału autora spornej treści, który nie miałby szansy przedstawić swojej argumentacji. Takie przepisy były po prostu nieakceptowalne! I właśnie to wywołało na początku roku całą aferę z wątkiem „rządowej cenzury”. Paradoksalnie – to ona stała się punktem wyjścia do naprawy tych rozwiązań.

I przepisy zostały uzdrowione?

W dużej mierze tak. Wprowadzono wiele zmian, o które walczyliśmy razem z Helsińską Fundacją Praw Człowieka przez ostatnich kilka miesięcy. Dlatego uczciwa recenzja aktualnego projektu prowadzi raczej do konkluzji, że trudno nadal mówić o realnym zagrożeniu cenzurą. I – jak już wspomniałam – choć ryzyka nadużyć nie da się całkowicie wyeliminować i z pewnością Prezesowi UKE i KRRiT (przyp. red. zgodnie z procedowaną ustawą KRRiT ma otrzymać analogiczne kompetencje blokowania treści na platformach video) trzeba będzie uważnie patrzeć na ręce, to w obecny projekt wmontowano ważne mechanizmy, które ograniczają prawdopodobieństwo cenzorskiego scenariusza. Ale żeby to zrozumieć, trzeba zagłębić się w szczegóły tej regulacji, a tego niestety ani politycy, ani ludzie dyskutujący w sieci często nie robią, bo – powiedzy szczerze – to dość żmuda robota.

Poza tym dzisiejsze zarzuty o cenzurę, to często po prostu element narracji platform albo zwykłej walki politycznej.

Przede wszystkim w nowej wersji przepisów zawężono katalog spraw kierowanych do UKE do 27 najpoważniejszych przestępstw, takich jak groźby, oszustwa, tzw. porn revenge czy rozpowszechnianie treści związanych z wykorzystywaniem seksualnym dzieci. Zniknęły zapisy pozwalające na usuwanie treści w oparciu o naruszenie dóbr osobistych. Nie ma więc żadnych podstaw prawnych, by Prezes UKE nakazywał usuwanie treści będących ostrą krytyką czy zjadliwą satyrą wobec polityków lub innych osób publicznych – ani też wypowiedzi, które można uznać za bezprawne zniesławienie czy zniewagę (chyba że wiążą się one np. z konkretnymi groźbami). Osoby pokrzywdzone zniesławieniem czy znieważeniem mogą oczywiście próbować dochodzić usunięcia takich treści lub pociągnąć autora do odpowiedzialności, ale tylko na takich zasadach, jakie obowiązywały dotychczas, w oparciu o istniejące już teraz przepisy. Natomiast nie pomoże im tu szybka ścieżka przed Prezesem UKE, bo tego rodzaju sprawy wykraczają poza wąski katalog czynów zabronionych, którymi będzie mógł się zająć.

Nie ma więc żadnych podstaw prawnych, by Prezes UKE nakazywał usuwanie treści będących ostrą krytyką czy zjadliwą satyrą wobec polityków lub innych osób publicznych – ani też wypowiedzi, które można uznać za bezprawne zniesławienie czy zniewagę.

Pojawia się oczywiście kwestia umieszczenia w tym katalogu tzw. mowy nienawiści, która bardzo rozgrzewa niektórych polityków. Trzeba jednak podkreślić, że w tym przypadku mowa nienawiści to nie zwykły „hejt”, a tym bardziej ostra krytyka. Chodzi tu o konkretne czyny zabronione opisane w art. 256 i 257 kodeksu karnego. Obejmują one skrajne wypowiedzi o podłożu dyskryminacyjnym skierowane przeciwko jasno określonym grupom: narodowym, etnicznym, rasowym, wyznaniowym (także ze względu na bezwyznaniowość). Nie chronią takiej grupy jak politycy. W Polsce nie obejmują w tej chwili nawet społeczności LGBT+, mimo że w praktyce to akurat jedna z najbardziej narażonych na ataki grup.

Wypowiedzi mają więc swój określony zakres. Dodatkowo muszą przekroczyć odpowiedni próg agresywności. Krytyka, nawet najsurowsza, skierowana np. wobec migrantów, o ile nie zawiera gróźb śmierci, przemocy seksualnej, nawoływania do eksterminacji ani innych skrajnych treści, nie powinna być automatycznie uznawana za mowę nienawiści w rozumieniu tych przepisów.

Kiedy niektórzy posłowie w Sejmie mówią, że np. „ustawa zakaże krytykowania ideologii gender”, to naprawdę jest to jakieś nieporozumienie. Ta kwestia leży poza zakresem ustawy! Sama ustawa nie zakaże niczego więcej niż to, co już dziś jest zakazane. Być może przyczyni się jedynie do tego, że część obowiązujących zakazów będzie skuteczniej egzekwowana.

Sama ustawa nie zakaże niczego więcej niż to, co już dziś jest zakazane. Być może przyczyni się jedynie do tego, że część obowiązujących zakazów będzie skuteczniej egzekwowana.

Ale to wszystko ma szanse tak działać tylko przy dobrej woli politycznej, a konkretnie woli, by tych mechanizmów nie próbować nadużywać. A politycy, jak wiemy, niekoniecznie zawsze mają taką dobrą wolę.

I tu w sukurs idą kolejne istotne zmiany w nowej wersji prawa, w tym włączenie autora zakwestionowanych treści w procedurę. Ma on być pełnoprawną stroną postępowania, z prawem przedstawienia swojego stanowiska, które musi być wzięte pod uwagę przed wydaniem decyzji. Będzie mógł też oczywiście zaskarżyć decyzję Prezesa UKE do sądu.

Kolejna zmiana to zapewnienie kontroli nad tymi decyzjami przez sąd powszechny, który ma znacznie lepsze kompetencje do rozstrzygania sporów z zakresu swobody wypowiedzi niż sąd administracyjny. Zresztą w praktyce to właśnie do sądu, a nie do Prezesa UKE będzie należało ostatnie słowo (zniesiono też nadawanie „z automatu” rygoru natychmiastowej wykonalności decyzji Prezesa). Teraz, nawet jeśli Prezes UKE wyda decyzję o usunięciu twojej treści, możesz złożyć sprzeciw do sądu. Co do zasady do momentu wydania prawomocnego wyroku decyzja nie zostanie wykonana, czyli twój post będzie nadal wisiał w sieci. Jedynie w wyjątkowych sytuacjach Prezes UKE będzie mógł zarządzić jej natychmiastowe wykonanie, przed wyrokiem sądu – i tu oczywiście trzeba będzie pilnować, żeby nie nadużywał tego trybu.

Ale to z kolei oznacza, że nie będzie żadnego przyspieszenia w podejmowaniu decyzji. Sądy, jak sama mówiłaś, w Polsce nie działają ekspresowo.

Jest to więc pewien kompromis. Prezes UKE nie będzie mógł decydować o usunięciu każdej bezprawnej treści, która może być szkodliwa. Jego kompetencje będą ograniczone do najpoważniejszych przypadków nadużyć, w dodatku w razie odwołania do sądu jego decyzje będą musiały poczekać na potwierdzenie przed wykonaniem. To wszystko sprawia, że nie każda nielegalna wypowiedź szybko zniknie z sieci – ale zminimalizowane zostaje ryzyko nadmiarowej ingerencji tego organu w wolność słowa.

Na pewno ludziom będzie jednak łatwiej zakwestionować decyzję moderacyjną przed zewnętrznym, niezależnym od platformy organem. Dziś nie tak prosto w ogóle skierować taką sprawę do sądu. Poza tym myślę, że w wielu oczywistych przypadkach cała procedura będzie szybka, czyli potrwa od 2 do 7 dni, bo po prostu zakończy się na Prezesie UKE czy KRRiT. I to nie dlatego, że – jak powiedział jeden z posłów podczas I czytania projektu ustawy w Sejmie – „nikomu nie będzie chciało się kopać z urzędniczym koniem”; tylko dlatego, że autor np. postów zawierających obrazy seksualnego wykorzystania dzieci niekoniecznie będzie skory bronić tych treści w sądzie. Obstawiam, że osoba mająca świadomość naruszenia prawa w ogóle nie będzie zainteresowana aktywnym udziałem w postępowaniu. Będzie wolała pozostać anonimowa – na co zresztą procedowane przepisy jej pozwalają. Ich celem nie jest bowiem rozliczanie sprawców, tylko ochrona ofiar przed oczywistymi szkodliwymi skutkam obecności takich materiałów w sieci.

To wszystko będzie działało bezpiecznie tylko tak długo, jak długo Prezes UKE pozostanie niezależnym regulatorem. Tymczasem tegoroczna ścieżka wyboru nowego szefa Urzędu Komunikacji Elektronicznej pozostawia wiele do życzenia. Ba, wręcz pokazuje silne upolitycznienie tego organu.

I tu wracamy do kwestii zaufania – do państwa i do rządzących. Bez niego trudno skutecznie wdrażać ochronę obywateli wobec platform. My to wiemy, ty to wiesz, ale niestety sami politycy robią wiele, by tego zaufania nie odbudować. I właśnie wybór Prezesa UKE, który pod koniec lata odbył się w atmosferze kuluarowych decyzji, jest tego smutnym przykładem.

Miesiącami apelowaliśmy do rządzących, by stworzyli warunki do otwartego i przejrzystego postępowania. Niestety, nasze prośby zostały zignorowane. Sposób, w jaki Kancelaria Prezesa Rady Ministrów poprowadziła ten proces, nie dał nam szansy nie tylko na poznanie poglądów samych kandydatów, ale nawet ich nazwisk. Nie dowiedzieliśmy się też wówczas, kto oceniał i wybierał kandydatów, bo odpowiedź na nasz wniosek o upublicznienie składu komisji konkursowej otrzymaliśmy kilka tygodni po zaprzysiężeniu nowego prezesa.

Do prac tej komisji nie dopuszczono też przedstawicieli organizacji społecznych. Maleńki sukces odnieśliśmy dopiero na ostatniej prostej. Udało się przeprowadzić wysłuchanie publiczne, gdy premier już wskazał swojego kandydata, a Sejm miał jedynie zatwierdzić jego wybór. Dopiero wtedy, podczas komisji sejmowej, mogliśmy porozmawiać z Przemysławem Kuną.

To wszystko nie oznacza, że ostatecznie wygrał zły kandydat. Sam przebieg procesu nie dał mu jednak szansy na zbudowanie zaufania społecznego ani nie pomógł w przekonaniu sceptyków, że jest osobą ponadpartyjną. Nowy Prezes będzie musiał dopiero na to wszystko zapracować. Trzymam kciuki za to, żeby mu się udało.

Szkoda jednak, że to się nie wydarzyło wcześniej. Sytuacja ta utrudniła dyskusję o nowych uprawnieniach UKE wynikających z DSA i nie pomagła we wzmacnianiu zaufania do samej regulacji. Niestety, w KPRM chyba nikt nie połączył tych kropek.

Czyli dołożyli wam pracy. Musicie pilnować nowego szefa UKE i jednocześnie wciąż tłumaczyć, dlaczego kontrola nad gigantami technologicznymi jest potrzebna.

Taka już rola watchdogów. Ale liczymy, że nie będziemy w tym sami i pomogą nam inne organizacje, a także media. Będziemy tego pilnować także dlatego, że wśród nowych uprawnień Prezesa UKE znalazła się bardzo ważna kwestia: ma otrzymać także uprawnienia do odblokowywania. Będzie mógł w pewnym zakresie „odkręcać” niesłuszne decyzje platform o usunięciu treści lub konta.W tym sensie stanie się swoistym rzecznikiem wolności słowa.

Procedura nie jest idealnie zaprojektowana i mamy nadzieję, że uda się ją jeszcze poprawić w pracach sejmowych, ale sam fakt, że powstała, jest ważnym krokiem naprzód. To może być dość rewolucyjne narzędzie do walki z prywatną cenzurą. Wreszcie będzie istniał oficjalny, rządowy organ, do którego każdy niesłusznie zablokowany przez platformę użytkownik będzie mógł się zwrócić o pomoc i w miarę sprawnie (oby!) ją uzyskać.

Wreszcie będzie istniał oficjalny, rządowy organ, do którego każdy niesłusznie zablokowany przez platformę użytkownik będzie mógł się zwrócić o pomoc i w miarę sprawnie (oby!) ją uzyskać.

Myślisz, że ludzie zaufają i będę tam tej pomocy szukać?

Ludzie, którzy nagle stracili konto przez złą decyzję algorytmu czy błąd moderatora, zwłaszcza jeśli było ono powiązane z ich działalnością zawodową, chwycą się każdej opcji. A w tej chwili nie ma spektakularnej alternatywy. Jeśli proces odwoławczy w ramach platformy nie przyniesie skutku, użytkownik lub użytkowniczka może ewentualnie się udać do pozasądowego organu, tyle że jak na razie musi się udać za granicę… Poza tym tylko niektóre przyjmują skargi użytkowników z Polski.

Ponadto decyzja takiego organu nie jest dla platformy bezpośrednio wiążąca, więc ostateczny efekt jest niepewny, nawet jeśli organ przychyli się do skargi. Ze szczątkowych statystyk, które pokazał jeden z takich organów, wiemy, że niektóre platformy współpracują lepiej, inne gorzej, ale nawet te współpracujące realizowały jego decyzje jedynie w ok. 50 proc. przypadków.

Natomiast alternatywa w postaci ścieżki sądowej w Polsce – jak już wiemy – jest skomplikowana, kosztowna, długotrwała i niekoniecznie dostępna w przypadku każdej blokady, bo wiele zależy od okoliczności danej sprawy. Procedura odblokowywania niesłusznie zablokowanych treści przed Prezesem UKE ma więc szansę wypełnić realną lukę w ochronie praw użytkowników sieci.

Brzmisz bardzo optymistycznie, recenzując to prawo. Czy naprawdę nie ma nic, czego byś się w związku z nim obawiała?

Dla mnie DSA nie jest regulacją o cenzurze, tylko o przywróceniu właściwych relacji władzy między państwami a wielkimi platformami. Widzę w nim nie zagrożenie, ale szansę, by Europa mogła wreszcie reagować na negatywne skutki działania platform w obszarach takich jak jakość debaty publicznej, ochrona dzieci czy ochrona zdrowia psychicznego – i jednocześnie wspierać pozycję swoich obywateli i obywatelek w relacji z cybergigantami. Oczywiście, zarówno DSA, jak i ustawa wdrażająca mają swoje mankamenty. Najbardziej obawiam się tego, że wiele z proponowanych rozwiązań pozostanie tylko na papierze.

Po ponad dwóch latach obowiązywania DSA wiemy, że sukces tej regulacji zależy od jej skutecznego egzekwowania – zarówno na poziomie unijnym, jak i na poziomie poszczególnych krajów Unii. To system naczyń połączonych, w którym Polska, bez wdrożonego DSA i w pełni działającego koordynatora usług cyfrowych, jest w tej chwili słabym ogniwem. Tracą na tym przede wszystkim użytkownicy i użytkowniczki z Polski, którzy bez tej regulacji mają dużo bardziej ograniczone możliwości egzekwowania swoich praw wobec big techów i mniejszych usługodawców niż inne kraje, które już ją wdrożyły. My też, jako organizacje walczące o prawa ludzi w sieci, mamy przez to do pewnego stopnia związane ręce. Mam nadzieję, że polscy politycy nie będą dłużej przeciągać tego procesu i dadzą nam w końcu szansę na wyrównanie warunków gry.

Sylwia Czubkowska
Współpraca

Wywiad ukazał się w biuletynie Fundacji Panoptykon nr 5 BIG TECH. Aktualizacja systemu.

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.