Artykuł 03.11.2025 15 min. czytania Tekst Image Tytuł DSA czyli co? Ochrona użytkowników i użytkowniczek z Europy i Polski Platformy szkodzą. I muszą być regulowane? Polskie wdrożenie DSA / zmiany w UŚUDE / aktu o usługach cyfrowych Co stracimy, jeśli Polska nie wdroży DSA? Cenzura w polskim wdrożeniu DSA (zmiany w UŚUDE) Co się zmieniło? Czy dalej mamy do czynienia z cenzurą PUKE? Lista przestępstw, które mogą być podstawą blokady przez UKE (z Ministerstwa Cyfryzacji) Cenzura w unijnym rozporządzeniu DSA Tytuł DSA czyli co? Ochrona użytkowników i użytkowniczek z Europy i Polski Platformy szkodzą. I muszą być regulowane? Polskie wdrożenie DSA / zmiany w UŚUDE / aktu o usługach cyfrowych Co stracimy, jeśli Polska nie wdroży DSA? Cenzura w polskim wdrożeniu DSA (zmiany w UŚUDE) Co się zmieniło? Czy dalej mamy do czynienia z cenzurą PUKE? Lista przestępstw, które mogą być podstawą blokady przez UKE (z Ministerstwa Cyfryzacji) Cenzura w unijnym rozporządzeniu DSA 16 października 2025 r. odbyło się w sejmie pierwsze czytanie projektu ustawy wdrażającej akt o usługach cyfrowych (Digital Service Act, DSA). Ustawa pojawia się głównie w związku z zarzutami o możliwą cenzurę. Co to jest DSA i jak wygląda w nim kwestia cenzury?DSA czyli co?Digital Services Act (po polsku „akt o usługach cyfrowych”) to rozporządzenie stanowiące filar unijnej reformy, której celem jest przywrócić właściwe relacje władzy między państwami i platformami. Powstało, by państwa Unii Europejskiej mogły reagować na negatywne skutki działania platform i wspierać pozycję obywateli w relacji z cybergigantami.DSA zostało przyjęte w październiku 2022 r. W sierpniu 2023 r. zaczęło obowiązywać wobec największych platform internetowych (VLOP-ów) i największych wyszukiwarek (VLOSEs), a wobec pozostałych, mniejszych usługodawców – w lutym 2024 r.Ochrona użytkowników i użytkowniczek z Europy i PolskiDSA ma chronić prawa użytkowników i użytkowniczek internetu w Unii. W praktyce:wprowadza ograniczenia dla najbardziej inwazyjnej, śledzącej reklamy;zwiększa przejrzystość działania algorytmów rekomendacyjnych;wprowadza wymóg pisania regulaminów prostym językiem;ustala reguły współpracy firm internetowych z organami ścigania;narzuca jaśniejsze i bardziej spójne zasady moderacji treści (zwłaszcza dla platform).Platformy szkodzą. I muszą być regulowane?Od blisko dwóch dekad największe korporacje technologiczne rosną, ale nie rośnie ich społeczna odpowiedzialność. Mimo posiadania realnej władzy nad dystrybucją informacji, są mniej regulowane niż portale newsowe. Uzależniają i szkodzą wszystkim, a profile na mediach społecznościowych mają nawet przedszkola.Problem 1. Model biznesowy największych platform internetowych opiera się na ciągłym nadzorze. Nieustanna obserwacja zachowań w sieci pozwala realnie wpływać nie tylko na wybory konsumenckie, ale także te polityczne czy społeczne (patrz: fala mizoginii i trend na „Szon Patrole”).Problem 2. Platformy internetowe rządzą informacją. I cenzurują ją. To od algorytmów zależy, co zobaczą wszyscy i stanie się viralem, a czego nie zobaczy nikt. Długo głównym zagrożeniem dla wolności w przestrzeni internetowej byli politycy. Dzisiaj ich miejsce zajmują platformy i mają dużo więcej możliwości cenzurowania debaty publicznej wg swoich interesów (nie tylko finansowych, także politycznych).Problem 3. Platformy prywatyzują zyski, ale koszty ponosimy my wszyscy – np. Facebook wielokrotnie udowodnił, że interesy są dla niego ważniejsze niż ludzkie życie. ONZ uznał, że platforma nie reagowała na publikowane na niej treści podżegające i dokumentujące przemoc wobec mniejszości muzułmańskiej w Mjanmie, która skończyła się czystką etniczną.W Rumunii w 2024 roku pierwszą turę wyborów prezydenckich (ostatecznie unieważnioną) wygrał nieznany szerzej kandydat, którego kampania finansowana w niejasny sposób odbywała się głównie na Tik Toku i zdobyła tam zaskakująco szerokie zasięgi.Jaką mamy więc gwarancję, że platformy zareagują same na listę innych problemów, które będą generować? Bez odpowiednich regulacji nie będziemy w stanie ich rozliczyć ani narzucić żadnej odpowiedzialności.Polskie wdrożenie DSA / zmiany w UŚUDE / aktu o usługach cyfrowychDSA już teraz obowiązuje we wszystkich państwach członkowskich.Niektóre aspekty wymagają jednak wdrożeń krajowych. Np. powołanie nowego strażnika praw użytkowników i użytkowniczek internetu – Koordynatora Usług Cyfrowych (KUC). Będzie on egzekwował DSA na krajowym rynku i wspierał Komisję Europejską z rozliczania jego przestrzegania przez największe platformy.Państwa członkowskie miały powołać KUC-ów do 17 lutego 2024. Do czasu wejścia w życie ustawy wdrażającej DSA mamy wyłącznie tymczasowego KUC-a o ograniczonych kompetencjach (polscy użytkownicy i użytkowniczki nie mają do kogo składać skarg). Image Wszystkie kraje członkowskie do 17 lutego 2024 r. miały powołać Koordynatorów Usług Cyfrowych (KUC-ów).Co stracimy, jeśli Polska nie wdroży DSA?Koordynatora Usług Cyfrowych. Urząd stojący po stronie polskich użytkowników i użytkowniczek w sporach z platformamiKUC nie będzie mógł przyjmować skarg, np. gdy platforma usunie treść i nie uzasadni tej decyzji, nie zapewni mechanizmu zgłaszania nielegalnych treści, będzie wykorzystywać manipulacyjne interfejsy (duży czerwony przycisk „zgody” na śledzenie, podczas gdy niewyrażanie zgody wymaga przeklikania się przez ustawienia)czy wyświetli dzieciom profilowaną reklamę;KUC nie poprowadzi postępowania przeciwko platformom, które mają siedzibę w Polsce (np. Allegro jest taką platformą).Niezależne od platform polskie organy rozstrzygające spory z platformamiOsoby, które czują się niesprawiedliwie zablokowane przez platformy, mogłyby zgłosić swoją sprawę do „pozasądowych organów rozstrzygania sporów” – specjalnych organizacji, które mogą powstać na gruncie DSA, aby weryfikować decyzje moderacyjne (zablokowanie treści albo ignorowanie przez platformę bezprawnego contentu).Teraz te organy nie mają szansy powstać w Polsce (muszą być certyfikowanej przez KUC-a). Teraz jedyną opcją jest próba zgłoszenia sprawy do zagranicznego pozasądowego organu, który przyjmuje sprawy z Polski i prowadzenie jej za granicą.Dostęp do danych dla badaczy i organizacji społecznychDSA zobowiązuje platformy do współpracy z badaczami i udostępniania zbiorów danych o zasobach platformy. W grę mogą wchodzić takie zasoby jak:publiczne posty lub filmy, które osiągają wyjątkowy zasięg lub zaangażowanie, kształtując agendę publiczną;posty z kont należących do wysokich urzędników państwowych, kandydatów, partii politycznych i instytucji, które mają bezpośredni wpływ na sprawowanie rządów.Jeśli platforma nie udzieli im dostępu, badacze mogliby złożyć skargę do swojego krajowego koordynatora (KUC). Oczywiście, dopóki DSA nie zostanie wdrożone, badacze z Polski nie mają takiej możliwości.Mechanizm odblokowywania kont czy treści – niezależny od platform i niedrogiDodatkowo, polska ustawa wdrażająca przewiduje możliwość zaskarżenia do Prezesa UKE decyzji platform o blokowaniu kont i usuwaniu treści, które platformy niesłusznie uznały za niezgodne z prawem (art. 11 a ust. 2 projektu ustawy). Ten mechanizm nie wynika bezpośrednio z DSA, jest to dodatek w Polsce.To ścieżka dla użytkowników i użytkowniczek, którym nie udało się skutecznie odwołać od decyzji platformy o blokadzie. Dziś nie każdą taką blokadę zaskarżyć ją do sądu, a nawet jeśli, wiąże się z kosztami i latami procesu.UWAGA! Ten mechanizm jest obiecujący, ale niedopracowany. W projekcie przewidziano, że procedury „odblokowywania” będą mogli skorzystać użytkownicy i użytkowniczki, na których nałożono blokadę z uwagi na to, że „przekazywali potencjalnie nielegalną treść”. Tymczasem platformy, uzasadniając decyzję o usunięciu treści, najczęściej odwołują się do naruszenia swoich regulaminów, a nie naruszenia prawa (np. na Facebooku mniej niż promil decyzji moderacyjnych odwołuje się w uzasadnieniu do naruszenia prawa. Może się więc okazać, że w rzeczywistości z tej ścieżki będą mogli skorzystać tylko nieliczni zablokowani użytkownicy i użytkowniczki. Rozszerzenie zakresu tego przepisu to kluczowa poprawka, którą warto wprowadzić do projektu.Publiczne pieniądzeBo ostatecznie za brak implementacji unijnych przepisów grożą Polsce kary finansowe, które może nałożyć TSUE. O jakich kwotach mówimy? Ostatnio, we wrześniu br., TSUE nałożył na Polskę karę za opóźnione wdrożenie dyrektywy DSM w wysokości 8,3 mln euro. A postępowanie za opóźnianie wdrożenia DSA przed TSUE już się toczy. Zamiast płacić kary, lepiej ich równowartość byłoby przeznaczyć na edukację medialną dzieci czy nowe etaty w sądach (bez nich raczej nie ma szans na szybkie rozstrzyganie sporów użytkowników i użytkowniczek z platformami).Cenzura w polskim wdrożeniu DSA (zmiany w UŚUDE)W styczniu 2025 r. Ministerstwo Cyfryzacji opublikowało kolejną wersję projektu polskiego wdrożenia DSA. W ramach tego projektu, poza przepisami niezbędnymi do wdrożenia DSA, wprowadzono także dodatkowe kompetencje Prezesa UKE do blokowania treści w sieci.Fundacja Panoptykon jako pierwsza (dzięki publikacji w „Dzienniku Gazecie Prawnej”) informowała o tym, że kompetencje PUKE są zbyt szerokie, a ustawa nie ma odpowiednich zabezpieczeń przed nadużywaniem i polityczną cenzurą.Co się zmieniło? Czy dalej mamy do czynienia z cenzurą PUKE?Ograniczono przesłanki, na podstawie których Prezes UKE, a w pewnym zakresie KRRiT, będą mogli wydawać nakazy usunięcia treści. Resort Cyfryzacji pokazał we wrześniu zamknięty katalog 27 przestępstw z Kodeksu Karnego i tylko czyny zabronione z tego katalogu mogą być podstawą nałożenia blokady.Są to treści, których zamieszczanie już teraz jest niezgodne z polskim prawem (np. zdjęcia wykorzystywania dzieci, karalne groźby, oszustwa czy revenge porn). Całą listę publikujemy dalej.Jeżeli dzisiaj takie treści wiszą w internecie, to przede wszystkim dlatego, że platformy niezbyt skwapliwie je sprzątają (a nie dlatego, że nie mają takiego obowiązku).Nowa ustawa w żaden sposób nie zmienia granic wolności słowa. Już teraz wolność ta nie chroni osób publikujących nielegalne treści.WAŻNE! W katalogu przestępstw nie ma zniesławienia, znieważenia funkcjonariusza publicznego czy ochrony dóbr osobistych. Były w poprzedniej wersji projektu i to m.in. one generowały największe ryzyko nadużywania uprawnień przez UKE (np. do blokowania krytycznych opinii czy niewygodnych wypowiedzi politycznych).Nie ma też mowy o blokowaniu „dezinformacji” jako takiej, co mogłoby wzbudzać obawy ze względu na nieostry zakres tego pojęcia.Kontrola sądów powszechnych nad decyzjami Prezesa UKE. Ostatnie słowo będzie należeć do sądów, które mają kompetencje do decydowania o granicach swobody wypowiedzi. Zaskarżenie do sądu decyzji o blokadzie treści przez PUKE co do zasady wstrzymuje jej wykonanie.Autor usuniętej treści będzie stroną postępowania przed PUKE. Po otrzymaniu zawiadomienia o rozpoczęciu procedury będzie on miał dwa dni na przedstawienie swojego stanowiska PUKE będzie miał zatem dostęp do argumentów obu stron sporu przed wydaniem decyzji. W razie niekorzystnej decyzji, autor treści będzie mógł także złożyć skargę do sądu. Image Ministerstwo Cyfryzacji we wrześniu przedstawiło listę konkretnych 27 rodzajów przestępstw, które mogą być podstawą blokady przez UKE.Lista przestępstw, które mogą być podstawą blokady przez UKE (z Ministerstwa Cyfryzacji)stosowanie przemocy lub groźby karalnej ze względu na rasę, pochodzenie narodowe lub etniczne, wyznanie bądź bezwyznaniowość i przynależność polityczną. (art. 119 ustawy Kodeks karny, dalej jako „KK”);przyjęcie zlecenia zabójstwa człowieka w zamian za udzieloną lub obiecaną korzyść majątkową lub osobistą (art. 148a KK);namowa i pomoc w doprowadzeniu do samobójstwa (art. 151 KK);nakłanianie innej osoby do spowodowania u niej ciężkiego uszczerbku na zdrowiu (art. 156a KK);handel ludźmi (art. 189a KK);stosowanie groźby karalnej (art. 190 KK);wykorzystanie wizerunku pokrzywdzonego, tak jakby uczynił to on sam w swoim imieniu, przez co wyrządza jej szkodę majątkową lub osobistą (art. 190a § 2 KK);utrwalanie wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo rozpowszechnianie wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody (art. 191a § 1 KK);prezentowanie małoletniemu poniżej lat 15 treści pornograficznych albo rozpowszechnianie treści pornograficznych w sposób umożliwiający takiemu małoletniemu zapoznanie się z nimi (art. 200 § 3 KK);prowadzenie reklamy lub promocji działalności polegającej na rozpowszechnianiu treści pornograficznych w sposób umożliwiający zapoznanie się z nimi małoletniemu poniżej lat 15 (art. 200 § 5 KK);nawiązywanie kontaktu z małoletnim poniżej 15 lat, za pośrednictwem systemu teleinformatycznego lub sieci telekomunikacyjnej, w celu popełnienia przestępstwa seksualnego (art. 200a KK);publiczne propagowanie lub pochwalanie zachowań o charakterze pedofilskim (art. 200b KK);publiczne prezentowanie, produkcja, rozpowszechnianie, przechowywanie treści pornograficznych, zwłaszcza z udziałem małoletnich (art. 202 § 1, 3-4c KK);zawiadomienie o nieistniejącym zagrożeniu, wywołującego działania instytucji publicznych (art. 224a KK);publiczne propagowanie totalitarnych ideologii (nazizmu, komunizmu, faszyzmu lub innego ustroju totalitarnego, lub nawoływaniem do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość (art. 256 § 1 i 1a KK);produkowanie, utrwalanie lub sprowadzanie, nabywanie, zbywanie, oferowanie, przechowywanie, posiadanie, prezentowanie treści określonych w art. 256 § 1 i 1a, użytej w sposób służący propagowaniu tej treści (art. 256 § 2 KK);publiczne znieważenie grupy ludności albo osoby lub naruszenie nietykalności cielesnej osoby z powodu przynależności narodowej, etnicznej, rasowej, wyznaniowej (art. 257 KK);doprowadzenie do niekorzystnego rozporządzenia mieniem przez wprowadzenie w błąd (art. 286 § 1 i 2 KK);oszustwo komputerowe (art. 287 § 1 KK);naruszenie praw autorskich przez rozpowszechnianie utworów bez zgody autora (art. 116 ustawy o prawie autorskim i prawach pokrewnych);uchylanie się od opodatkowania (art. 54 ustawy Kodeks karny skarbowy, dalej jako „KKS”);oszustwo podatkowe (art. 56 KKS);niewystawienie faktury lub rachunku (art. 62 KKS);sprzedaż bez uprzedniego prawidłowego oznaczenia znakami akcyzy (art. 63a KKS);oszustwo celne (art. 87 KKS);zakaz sprzedaży na odległość wyrobów tytoniowych (art. 12c pkt 5 ustawy o ochronie zdrowia przed następstwami używania tytoniu i wyrobów tytoniowych);podrobiony znak towarowy (art. 305 ustawy Prawo własności przemysłowej).Kontrowersyjna kategoria – mowa nienawiści. Mowa nienawiści to nie zwykły „hejt”, a tym bardziej (nawet ostra) krytyka. W polskim prawie to bardzo konkretne czyny zabronione opisane w art. 256 i 257 kk. Obejmują skrajne wypowiedzi o podłożu dyskryminacyjnym skierowane przeciwko jasno określonym grupom (narodowym, etnicznym, rasowym, wyznaniowym).Ale uwaga: przepisy zawarte w artykułach 256 i 257 Kodeksu karnego nie obejmują wszystkich grup społecznych – np. nie odnoszą się do polityków ani do osób LGBT+.Krytyka, nawet najsurowsza, skierowana np. wobec migrantów, o ile nie zawiera gróźb śmierci, przemocy seksualnej, nawoływania do eksterminacji ani innych skrajnie agresywnych treści, nie powinna być automatycznie uznawana za mowę nienawiści. Aby doszło do ich złamania, wypowiedź musi przekroczyć określony próg – i to w praktyce dość wysoki (wiele spraw jest umarzanych).Cenzura w unijnym rozporządzeniu DSARegulacja platform internetowych wzbudza emocje przede wszystkim na… największych platformach. To ich działalność powoduje największe szkody. Są to takie usługi jak najpopularniejsze media społecznościowe, platformy pornograficzne czy e-commerce (Shein, Temu).Tutaj lista wielkich wyszukiwarek i platform.To tych podmiotów dotyczą najdalej idące obowiązki wynikające z DSA. I to one najwięcej zyskają na niewdrażaniu prawa. Ruszyły więc z kampanią podsycającą nieufność wobec regulacji.Widać to nawet teraz w ostrej krytyce np. firmy Alphabet, spółki macierzystej Google.Wskazywali oni niedawno, że DSA zagraża wolności słowa na całym świecie i podali tę informację w kontekście ujawnionych nacisków administracji byłego prezydenta USA, Joe Bidena, na YouTube. Dlaczego działania prezydenta USA miałyby być przykładem na złe wdrożenia prawa w Europie? Dorota Głowacka Autorka Maria Wróblewska, Dominika ChachułaWspółpraca Linki i dokumenty Tak dla ochrony Polaków w sieci – nie dla interesów globalnych korporacji [brief listopad 2025]227.52 KBpdf Temat Odpowiedzialność pośredników za treści w Internecie Internet nowy cyfrowy ład media społecznościowe Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Martwisz się o zdrowie? Facebook nie pozwoli ci o tym zapomnieć Nie mów Facebookowi, jakich treści nie chcesz oglądać – to wiele nie zmieni. 07.12.2023 Tekst Artykuł Facebook decyduje Podczas gdy my badamy rolę Facebooka w kampanii wyborczej, niektórzy politycy na własnej skórze odczuwają problemy związane z arbitralnymi decyzjami firmy. Jeden z kandydatów startujący w jesiennych wyborach parlamentarnych twierdzi, że otrzymał zakaz publikacji postów do 8 listopada, inny – ze… 03.10.2019 Tekst Podcast Od RODO do DSA, czyli o rewolucjach i kompromisach. Rozmowa z Michałem Bonim Ten odcinek podcastu powstał kilka dni po tym, kiedy Parlament Europejski zagłosował nad Aktem o usługach cyfrowych. Wyniki tego głosowania raportowaliśmy dość entuzjastycznie. Mimo otwartego sprzeciwu branży reklamowej i ogromnych wydatków cyfrowych korporacji na lobbing w Brukseli (tylko Google i… 10.02.2022 Dźwięk
Tak dla ochrony Polaków w sieci – nie dla interesów globalnych korporacji [brief listopad 2025]227.52 KBpdf