Artykuł 14.01.2026 10 min. czytania Tekst Image Doceniamy próby Prezydenta, by o trudnych sprawach mówić krótko i konkretnie. Problem w tym, że nie zawsze się da. W rzeczywistość zawetowanej ustawy nie da się sprowadzić do planszy z pięcioma punktami. Jak wykażemy niżej, analizując przekaz Prezydenta, ta formuła nie sprzyja rzetelności przekazu. Wybaczcie, będzie więc długo.NADMIERNE KOMPETENCJE UKE. Bez wystarczających gwarancji niezależności od polityki. → FAŁSZ, ALE...W ustawie wdrażającej Akt o usługach cyfrowych (DSA) znalazły się również przepisy niewymagane wprost przez unijną regulację, takie jak mechanizm blokowania i odblokowywania treści przez Prezesa Urzędu Komunikacji Elektronicznej (UKE) i Przewodniczącego Krajowej Rady Radia i Telewizji (KRRiT, w odniesieniu do platform wideo). Na przestrzeni kilku miesięcy wprowadzono do projektu szereg rozwiązań, które ograniczają możliwość użycia nowych uprawnień UKE/KRRiT do celów politycznych. Sami aktywnie zabiegaliśmy o te zmiany przez ostatni rok.W tym czasie: wprowadzono kontrolę sądową nad decyzjami, zapewniono wstrzymanie wykonania decyzji o blokadzie w przypadku skargi do sądu – do czasu zakończenia sprawy – a przede wszystkim ograniczono katalog spraw, którymi wskazane organy będą mogły się zajmować, do 27 przestępstw. Dodajmy, że w katalogu nie ma przestępstw związanych z hejtem, dezinformacją, czy obrażaniem polityków. Za to aż 7 punktów dotyczy dzieci, a kilka kolejnych oszustw i podszywania się.Wprowadzono również wprost wymóg niezależności politycznej osób biorących udział w procedurze wydawania nakazów blokowania nielegalnych treści, a także ustanowiono publiczny rejestr takich decyzji.Prezes UKE ani Przewodniczący KRRiT nie mogliby zajmować się sprawami, w których krytyka rządu czy polityków przekroczyłaby granice wolności słowa, stanowiąc np. znieważenie, naruszenie dóbr osobistych, rozpowszechnianie nieprawdziwych informacji etc. Nawet gdyby próbowali wyjść poza swoje uprawnienia, na straży wolności słowa stałby sąd. O tym wszystkim nie dowiemy się jednak z głosów zarzucających ustawie cenzurę.Możliwe, że słowa Prezydenta RP Karola Nawrockiego o braku niezależności UKE odnosiły się do sposobu, w jaki został wybrany obecny Prezes Urzędu. Cóż, Panoptykon jeszcze przed wakacjami apelował w gronie kilkudziesięciu organizacji do rządzących, by stworzyli warunki do otwartego i przejrzystego procesu wyboru nowego Prezesa UKE.Niestety proces, który miał miejsce pod koniec lata, był mniej transparentny niż np. ten dotyczący wyboru nowego Prezesa NIK czy Prezesa UODO. O wyborze Premiera dowiedzieliśmy się z mediów, a nie w wyniku przejrzystego procesu rekrutacyjnego. Szkoda, ponieważ wybór dokonany za zamkniętymi drzwiami utrudnia Przemysławowi Kunie zbudowanie zaufania społecznego oraz przekonanie sceptyków, że jest osobą ponadpartyjną.Jest to szczególnie problematyczne w kontekście nowych kompetencji przyznanych urzędowi w ustawie wdrażającej DSA, gdzie zaufanie do instytucji odgrywa kluczową rolę. Większa transparentność z pewnością ułatwiłaby dyskusję o nowych uprawnieniach UKE oraz pomogłaby we wzmacnianiu zaufania do samego DSA.Niestety wygląda na to, że chyba nikt w KPRM nie połączył tych faktów. Nowy Prezes będzie musiał dopiero zapracować na reputację osoby ponadpartyjnej, choć właśnie takie wymagania stawia przed nim DSA. Zgodnie z przepisami koordynator do spraw usług cyfrowych ma być „wolny od jakichkolwiek bezpośrednich i pośrednich wpływów zewnętrznych, nie zwracać się do żadnego innego organu publicznego ani podmiotu prywatnego o instrukcje ani nie przyjmować takich instrukcji”.ADMINISTRACYJNE USUWANIE TREŚCI Z INTERNETU – na podstawie decyzji urzędników – PRAWDA, ALE…Mówiliśmy to już wiele razy (również wyżej), ale powtórzymy raz jeszcze: w „pierwszej linii” to faktycznie Prezes UKE (ew. Przewodniczący KRRiT w odniesieniu do platform wideo) miałby prawo – na wniosek uprawnionych podmiotów – wydać nakaz zablokowania nielegalnych treści.Jednak w przypadku wniesienia sprzeciwu przez autora spornych materiałów albo platformę, ostateczne rozstrzygnięcie zawsze należeć będzie do sądów – instytucji, które, w pełni się z tym zgadzamy - mają najlepsze kompetencje w zakresie rozstrzygania sporów dotyczących swobody wypowiedzi.Zaskarżenie do sądu decyzji Prezesa UKE/Przewodniczącego KRRiT o blokadzie w każdym przypadku wstrzymywałoby jej wykonanie, co oznacza, że do momentu rozstrzygnięcia sprawy przez sąd sporna treść pozostawałaby dostępna w sieci.Do tego trzeba dodać wszystkie gwarancje, o których piszemy wyżej, oraz inne zabezpieczenia, takie jak możliwość przedstawienia własnego stanowiska przez autora spornej treści w postępowaniu przed Prezesem UKE przed podjęciem przez niego decyzji.Tymczasem sposób, w jaki krytycy przedstawiają tę procedurą, sprawia wrażenie, jakby decyzje mogły być podejmowane przez urzędników według własnego uznania i bez jakiejkolwiek kontroli – czyli mniej więcej tak, jak dzieje się to obecnie i jak, przynajmniej jeszcze przez pewien czas, w sytuacji braku ustawy, nadal mogą działać same platformy).Mamy z tym problem, i to nie dlatego, że wypracowane gwarancje są w dużej mierze efektem presji społecznej (również naszej), lecz przede wszystkim dlatego, że takie uproszczenie wprowadza opinię publiczną w błąd. Prezes UKE/Przewodniczący KRRiT nie mają w „atomowego guzika”. Zamiast tego informują autora/-kę treści, że dana treść jest nielegalna i że zamierzają ją zablokować, po czym czekają 2 dni na reakcję. Następnie zapoznają się z argumentami autora/-ki i wydają decyzję (którą, jakby co, strona niezadowolona z rozstrzygnięcia może zaskarżyć do sądu).Po kolejnych dwóch tygodniach – jeżeli Internauta/Internautka nie zaskarży decyzji do sądu (przypomnijmy, że cały czas mówimy o treściach z zamkniętego katalogu 27 przestępstw) – platforma otrzymuje nakaz usunięcia treści. W przypadku wniesienia skargi treść może pozostawać dostępna nawet przez wiele lat, tyle, ile sąd będzie potrzebował na rozpatrzenie sprawy.Wiemy, że dla tezy o cenzurze wygodniejszy jest obraz centrum monitoringu z czerwonym przyciskiem „blokuj”, ale w praktyce wygląda to zupełnie inaczej.ROZWIĄZANIA WYKRACZAJĄCE POZA STANDARDY UE. Poprzez finansowanie organizacji „sygnalizujących” treści w internecie. → PRAWDA, ALE...Organizacje sygnalizujące treści, czyli tzw. „zaufane podmioty sygnalizujące”, to kategoria wprowadzona przez unijne regulacje. Ich rola sprowadza się do zgłaszania platformom nielegalnych treści, czyli tych, które są zakazane w polskim lub unijnym prawie, jak np. materiały przedstawiające seksualne wykorzystywanie dzieci, groźby karalne czy oszustwa.Zaufane podmioty nie będą mogły zgłaszać treści (ani tym bardziej „wskazywać nieprawomyślnych obywateli” – cytat z oświadczenia Prezydenta tłumaczącego weto), które im się subiektywnie nie podobają, ale nie są nielegalne (np. teorii spiskowych). Co więcej, ich zgłoszenia nie są dla platform wiążące. To platformy podejmują ostateczną decyzję, czy usunąć dany materiał.Jedyna różnica między zgłoszeniem dokonanym przez zaufany podmiot sygnalizujący a zgłoszeniem złożonym przez zwykłego użytkownika lub użytkowniczkę internetu polega na tym, że to pierwsze powinno być rozpatrzone szybciej. Jednocześnie zaufane podmioty sygnalizujące muszą skrupulatnie rozliczać się z jakości swojej pracy (m.in. publikować raporty ze swojej działalności i składać je do koordynatora usług cyfrowych). W przypadku nadużywania swojej swojej pozycji grozi im utrata tego statusu.To prawda, że Akt o usługach cyfrowych nie wymaga publicznego finansowania dla tych podmiotów. Propozycja ta została dodana w toku prac nad polską ustawą wdrażającą DSA. Jednocześnie warto spojrzeć na nią z szerszej perspektywy. Przez lata media społecznościowe współpracowały z organizacjami specjalizującymi się np. w walce z cyberprzemocą. Dzięki nim platformom łatwiej było wyłapać niektóre nielegalne treści. Działalność tych organizacji w dużej mierze była finansowana przez platformy.Od mniej więcej roku widzimy zwrot w podejściu platform do moderacji treści. Na samych platformach zespoły moderatorów są redukowane lub zastępowane na większą skalę niedoskonałymi narzędziami opartymi na sztucznej inteligencji. Współpraca z zewnętrznymi organizacjami monitorującymi treści na platformach została ograniczona lub zawieszona. Straciły więc one finansowanie.Te decyzje przełożyły się na jakość debaty w sieci. W wielu wypadkach platformy reagują z opóźnieniem lub wcale na treści, które są nielegalne według lokalnego prawa. Elon Musk zamiast zawiesić konto Groka, na którym pojawiły się zdjęcia rozebranych kobiet, a nawet dzieci, udostępnił zdjęcie rakiety Space-X w bikini. Facebook wciąż nie może poradzić sobie z reklamami scamów, być może dlatego, że około 10% jego wpływów reklamowych pochodzi właśnie z takich treści. Może więc przyznawanie publicznych dotacji organizacjom walczącym z nielegalnymi treściami na platformach wcale nie jest takim złym pomysłem? Szczególnie, że – przypomnijmy – są one weryfikowane, muszą spełniać określone kryteria, mają obowiązek składania publicznych raportów, a jakość ich pracy jest kontrolowana. Tym bardziej, że, jak piszemy wyżej, trudno sprowadzić je do roli cenzorów.OGRANICZENIE PRAW OBYWATELA. Prezydent pisze o „osłabieniu realnych gwarancji procesowych w postępowaniach”. → ?Nie wiemy, które konkretnie aspekty postępowania przed Prezesem UKE/ Przewodniczącym KRRiT Prezydent ma tu na myśli. Chętnie się odniesiemy, jednak potrzebujemy więcej danych.BRAK ZASADY PROPORCJONALNOŚCI. Te same procedury będą obowiązywać wobec najcięższych przestępstw i drobnych wykroczeń. → FAŁSZProblem w tym, że – jak piszemy w punkcie pierwszym – zgodnie z zawetowaną ustawą Prezes UKE lub Przewodniczący KRRiT mieli wydawać decyzję o blokadzie treści w oparciu o wąski, zamknięty katalog 27 typów przestępstw określonych w Kodeksie karnym. Chodziło m.in. o takie czyny jak włamanie do systemu komputerowego i kradzież danych, internetowy scam wykorzystujący wizerunek (np. Prezydenta) do reklamowania narzędzi inwestycyjnych, czy rozpowszechnianie materiałów przedstawiających seksualne wykorzystanie dzieci.W katalogu tym nie ma ani jednego wykroczenia. Wykroczeniem może być np. umieszczenie nieprzyzwoitego rysunku lub napisu w miejscu publicznym albo używanie nieprzyzwoitych słów w miejscu publicznym. Są to więc faktycznie nadużycia mniejszej wagi niż przestępstwa, którymi jednak Prezes UKE lub Przewodniczący KRRiT nie będzie się w ogóle zajmował. Dorota Głowacka Autorka Maria Wróblewska Autorka Temat Odpowiedzialność pośredników za treści w Internecie media społecznościowe nowy cyfrowy ład Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Pierwsza decyzja sądu w sprawie SIN vs Facebook: internetowy gigant nie może utrudniać organizacji działalności w swoich portalach Sąd tymczasowo zakazał Facebookowi usuwania stron, kont i grup prowadzonych na Facebooku i Instagramie przez Społeczną Inicjatywę Narkopolityki, a także blokowania jej pojedynczych postów. Oznacza to, że przynajmniej do rozstrzygnięcia sprawy aktywiści SIN mogą prowadzić edukację narkotykową bez… 02.07.2019 Tekst Artykuł Francuzi karzą Google′a. Co z tego wynika dla polskich firm? Decyzja CNIL zapadła w siedem miesięcy od złożenia skargi przez dwie organizacje, które symbolicznie zakwestionowały standard ochrony danych w usługach Google już pierwszego dnia obowiązywania RODO. 11.02.2019 Tekst Artykuł Ostatnia rozprawa przeciwko Facebookowi. Wyrok za miesiąc Ostatni świadek, mowy końcowe, a na wyrok poczekamy do 13 marca. Podsumowujemy ostatnią rozprawę SIN vs Facebook o cenzurę na portalach Marka Zuckerberga. Sprawa toczy się od 2019 r.Wolność się liczyDołóż swoje 1,5%KRS: 0000327613 13.02.2024 Tekst