Artykuł 03.11.2025 14 min. czytania Tekst Image Tytuł DSA czyli co? Ochrona użytkowników i użytkowniczek z Europy i Polski Platformy szkodzą. I muszą być regulowane? Polskie wdrożenie DSA / zmiany w UŚUDE / aktu o usługach cyfrowych Co stracimy, jeśli Polska nie wdroży DSA? Cenzura w polskim wdrożeniu DSA (zmiany w UŚUDE) Co się zmieniło? Czy dalej mamy do czynienia z cenzurą PUKE? Lista przestępstw, które mogą być podstawą blokady przez UKE (z Ministerstwa Cyfryzacji) Cenzura w unijnym rozporządzeniu DSA Tytuł DSA czyli co? Ochrona użytkowników i użytkowniczek z Europy i Polski Platformy szkodzą. I muszą być regulowane? Polskie wdrożenie DSA / zmiany w UŚUDE / aktu o usługach cyfrowych Co stracimy, jeśli Polska nie wdroży DSA? Cenzura w polskim wdrożeniu DSA (zmiany w UŚUDE) Co się zmieniło? Czy dalej mamy do czynienia z cenzurą PUKE? Lista przestępstw, które mogą być podstawą blokady przez UKE (z Ministerstwa Cyfryzacji) Cenzura w unijnym rozporządzeniu DSA Trwają prace nad wdrożeniem w Polsce aktu o usługach cyfrowych (Digital Service Act, DSA). W mediach ta regulacja pojawia się głównie w związku z zarzutami o możliwą cenzurę. Co to jest DSA i jak wygląda w nim kwestia cenzury?DSA, czyli co?Digital Services Act (po polsku „akt o usługach cyfrowych”) to rozporządzenie stanowiące filar unijnej reformy, której ma na celu przywrócić właściwe relacje władzy między państwami a platformami. Powstało, by państwa Unii Europejskiej mogły reagować na negatywne skutki działania platform i wspierać pozycję obywateli w kontaktach z cybergigantami.DSA zostało przyjęte w październiku 2022 r. W sierpniu 2023 r. zaczęło obowiązywać wobec największych platform internetowych (VLOP) i największych wyszukiwarek (VLOSE), a w lutym 2024 r. – wobec pozostałych, mniejszych usługodawców.Ochrona użytkowników i użytkowniczek z Europy i PolskiDSA ma chronić prawa użytkowników i użytkowniczek Internetu w Unii. W praktyce:wprowadza ograniczenia dla najbardziej inwazyjnej, śledzącej reklamy;zwiększa przejrzystość działania algorytmów rekomendacyjnych;wprowadza wymóg pisania regulaminów prostym językiem;ustala reguły współpracy firm internetowych z organami ścigania;narzuca jaśniejsze i spójniejsze zasady moderacji treści (zwłaszcza dla platform).Platformy szkodzą. I muszą być regulowaneOd blisko dwóch dekad największe korporacje technologiczne rosną, ale nie rośnie ich społeczna odpowiedzialność. Mimo posiadania realnej władzy nad dystrybucją informacji są mniej regulowane niż portale newsowe. Uzależniają i szkodzą wszystkim – dzisiaj profile w mediach społecznościowych mają nawet przedszkola.Problem 1. Model biznesowy największych platform internetowych opiera się na ciągłym nadzorze. Nieustanna obserwacja zachowań w sieci pozwala realnie wpływać nie tylko na wybory konsumenckie, ale także na polityczne czy społeczne (patrz: fala mizoginii i moda na tzw. szon patrole).Problem 2. Platformy internetowe rządzą informacją. I cenzurują ją. To od algorytmów zależy, co wszyscy zobaczą i co stanie się viralem, a czego nie zobaczy nikt. Długo głównym zagrożeniem dla wolności w przestrzeni internetowej byli politycy. Dzisiaj ich miejsce zajęły platformy, które mają znacznie więcej możliwości cenzurowania debaty publicznej według swoich interesów (nie tylko finansowych, także politycznych).Problem 3. Platformy prywatyzują zyski, ale koszty ponosimy my wszyscy – np. Facebook wielokrotnie udowodnił, że interesy są dla niego ważniejsze niż ludzkie życie. ONZ uznał, że platforma nie reagowała na publikowane treści podżegające do przemocy wobec mniejszości muzułmańskiej w Mjanmie (która skończyła się czystką etniczną) i dokumentujące tę przemoc.W Rumunii w 2024 r. pierwszą turę wyborów prezydenckich (ostatecznie unieważnioną) wygrał nieznany szerzej kandydat, którego kampania, finansowana w niejasny sposób, odbywała się głównie na TikToku i zdobyła tam zaskakująco szerokie zasięgi.Jaką mamy więc gwarancję, że platformy same zareagują na listę innych problemów, które będą powodować? Bez odpowiednich regulacji nie będziemy w stanie ich rozliczyć ani wyegzekwować żadnej odpowiedzialności.Polskie wdrożenie DSA DSA już teraz obowiązuje we wszystkich państwach członkowskich.Niektóre aspekty wymagają jednak wdrożeń krajowych, jak np. powołanie nowego strażnika praw użytkowników i użytkowniczek Internetu: koordynatora usług cyfrowych (KUC). Będzie on egzekwował DSA na krajowym rynku i wspierał Komisję Europejską z rozliczania jego przestrzegania przez największe platformy.Państwa członkowskie miały powołać KUC-ów do 17 lutego 2024 r. Do czasu wejścia w życie ustawy wdrażającej DSA mamy wyłącznie tymczasowego KUC-a o ograniczonych kompetencjach (użytkownicy i użytkowniczki z Polski nie mają do kogo składać skarg). Image Wszystkie kraje członkowskie do 17 lutego 2024 r. miały powołać koordynatorów usług cyfrowych (KUC-ów).Co stracimy, jeśli Polska nie wdroży DSA?Stracimy koordynatora usług cyfrowych, czyli urząd stojący po stronie polskich użytkowników i użytkowniczek w sporach z platformami.KUC nie będzie mógł przyjmować skarg; np. gdy platforma usunie treść i nie uzasadni tej decyzji, nie zapewni mechanizmu zgłaszania nielegalnych treści, będzie wykorzystywać manipulacyjne interfejsy (duży czerwony przycisk „zgody” na śledzenie, podczas gdy niewyrażanie zgody wymaga przeklikania się przez ustawienia) czy wyświetli dzieciom profilowaną reklamę;KUC nie poprowadzi postępowania przeciwko platformom, które mają siedzibę w Polsce (np. Allegro jest taką platformą).Stracimy niezależne od platform polskie organy rozstrzygające spory z platformami.Osoby, które czują się niesprawiedliwie zablokowane przez platformy, mogłyby zgłosić swoją sprawę do „pozasądowych organów rozstrzygania sporów” – specjalnych organizacji, które mogą powstać na gruncie DSA, aby weryfikować decyzje moderacyjne (zablokowanie treści albo ignorowanie przez platformę bezprawnego contentu).Teraz te organy nie mają szansy powstać w Polsce (muszą być certyfikowane przez KUC-a). Aktualnie jedyną opcją jest próba zgłoszenia sprawy do zagranicznego pozasądowego organu, który przyjmuje sprawy z Polski, i prowadzenie jej za granicą.Dostęp do danych dla badaczy i organizacji społecznychDSA zobowiązuje platformy do współpracy z badaczami i udostępniania zbiorów danych o zasobach platformy. W grę mogą wchodzić takie zasoby, jak:publiczne posty lub filmy, które osiągają wyjątkowy zasięg lub zaangażowanie, kształtując debatę publiczną;posty z kont należących do wysokich urzędników państwowych, kandydatów, partii politycznych i instytucji, które mają bezpośredni wpływ na sprawowanie rządów.Jeśli platforma nie udzieliłaby im dostępu, badacze mogliby złożyć skargę do swojego krajowego koordynatora (KUC). Oczywiście dopóki DSA nie zostanie wdrożone, badacze z Polski nie mają takiej możliwości.Mechanizm odblokowywania kont czy treści – niezależny od platform i niedrogiDodatkowo polska ustawa wdrażająca przewiduje możliwość zaskarżenia do Prezesa UKE decyzji platform o blokowaniu kont i usuwaniu treści, które platformy niesłusznie uznały za niezgodne z prawem (art. 11a ust. 2 projektu ustawy). Ten mechanizm nie wynika bezpośrednio z DSA, jest to dodatek w Polsce.To ścieżka dla użytkowników i użytkowniczek, którym nie udało się skutecznie odwołać od decyzji platformy o blokadzie. Dziś nie każdą taką blokadę można zaskarżyć ją do sądu, a nawet jeśli – wiąże się to z kosztami i latami procesu.UWAGA! Ten mechanizm jest obiecujący, ale niedopracowany. W projekcie przewidziano, że z procedury „odblokowywania” będą mogli skorzystać użytkownicy i użytkowniczki, na których nałożono blokadę z uwagi na to, że „przekazywali potencjalnie nielegalną treść”. Tymczasem platformy, uzasadniając decyzję o usunięciu treści, najczęściej odwołują się do naruszenia swoich regulaminów, a nie do naruszenia prawa (np. na Facebooku mniej niż promil decyzji moderacyjnych odwołuje się w uzasadnieniu do naruszenia prawa). Może się więc okazać, że w rzeczywistości z tej ścieżki będą mogli skorzystać tylko nieliczni zablokowani użytkownicy i użytkowniczki. Rozszerzenie zakresu tego przepisu to kluczowa poprawka, którą należy wprowadzić do projektu.Publiczne pieniądzeOstatecznie za brak implementacji unijnych przepisów grożą Polsce kary finansowe, które może nałożyć TSUE. O jakich kwotach mówimy? Ostatnio (we wrześniu br.) TSUE nałożył na Polskę karę za opóźnione wdrożenie dyrektywy DSM w wysokości 8,3 mln euro. A postępowanie za opóźnianie wdrożenia DSA przed TSUE już się toczy… Zamiast płacić kary, lepiej ich równowartość przeznaczyć na edukację medialną dzieci czy nowe etaty w sądach (bez nich raczej nie ma szans na szybkie rozstrzyganie sporów użytkowników i użytkowniczek z platformami).Cenzura w polskim wdrożeniu DSA (zmiany w UŚUDE)W styczniu 2025 r. Ministerstwo Cyfryzacji opublikowało kolejną wersję projektu polskiego wdrożenia DSA. W ramach tego projektu, obok przepisów niezbędnych do wdrożenia DSA, wprowadzono dodatkowe kompetencje Prezesa UKE do blokowania treści w sieci.Fundacja Panoptykon jako pierwsza (dzięki publikacji w „Dzienniku Gazecie Prawnej”) informowała o tym, że kompetencje PUKE są zbyt szerokie, a ustawa nie ma odpowiednich zabezpieczeń przed nadużywaniem i polityczną cenzurą.Co się zmieniło? Czy dalej mamy do czynienia z cenzurą PUKE?Ograniczono przesłanki, na podstawie których Prezes UKE, a w pewnym zakresie KRRiT, będą mogli wydawać nakazy usunięcia treści. Resort cyfryzacji pokazał we wrześniu zamknięty katalog 27 przestępstw z kodeksu karnego. Tylko czyny zabronione z tego katalogu mogą stanowić podstawę do nałożenia blokady.Są to treści, których zamieszczanie już teraz jest niezgodne z polskim prawem (np. zdjęcia wykorzystywania dzieci, karalne groźby, oszustwa czy revenge porn). Całą listę publikujemy dalej.Jeżeli dzisiaj takie treści wiszą w Internecie, to przede wszystkim dlatego, że platformy niezbyt skwapliwie je sprzątają (a nie dlatego, że nie mają takiego obowiązku).Nowa ustawa w żaden sposób nie zmienia granic wolności słowa. Już teraz wolność ta nie chroni osób publikujących nielegalne treści.WAŻNE! W katalogu przestępstw nie ma zniesławienia, znieważenia funkcjonariusza publicznego czy ochrony dóbr osobistych. Były w poprzedniej wersji projektu i to m.in. one tworzyły największe ryzyko nadużywania uprawnień przez UKE (np. do blokowania krytycznych opinii czy niewygodnych wypowiedzi politycznych).Nie ma też mowy o blokowaniu „dezinformacji” jako takiej (co mogłoby wzbudzać obawy ze względu na nieostry zakres tego pojęcia).Kontrola sądów powszechnych nad decyzjami Prezesa UKE. Ostatnie słowo będzie należeć do sądów, które mają kompetencje do decydowania o granicach swobody wypowiedzi. Zaskarżenie do sądu decyzji o blokadzie treści przez PUKE co do zasady wstrzymuje jej wykonanie.Autor usuniętej treści będzie stroną postępowania przed PUKE. Po otrzymaniu zawiadomienia o rozpoczęciu procedury będzie miał dwa dni na przedstawienie swojego stanowiska. PUKE będzie miał zatem dostęp do argumentów obu stron sporu przed wydaniem decyzji. W razie niekorzystnej decyzji autor treści będzie mógł także złożyć skargę do sądu. Image Ministerstwo Cyfryzacji we wrześniu przedstawiło listę konkretnych 27 rodzajów przestępstw, które mogą być podstawą blokady przez UKE.Lista przestępstw, które mogą być podstawą blokady przez UKE (opracowana przez Ministerstwo Cyfryzacji)Stosowanie przemocy lub groźby karalnej ze względu na rasę, pochodzenie narodowe lub etniczne, wyznanie bądź bezwyznaniowość i przynależność polityczną (art. 119 ustawy kodeks karny, dalej jako „KK”)Przyjęcie zlecenia zabójstwa człowieka w zamian za udzieloną lub obiecaną korzyść majątkową lub osobistą (art. 148a KK)Namowa i pomoc w doprowadzeniu do samobójstwa (art. 151 KK)Nakłanianie innej osoby do spowodowania u niej ciężkiego uszczerbku na zdrowiu (art. 156a KK)Handel ludźmi (art. 189a KK)Stosowanie groźby karalnej (art. 190 KK)Wykorzystanie wizerunku pokrzywdzonego, tak jakby uczynił to on sam w swoim imieniu, przez co wyrządza jej szkodę majątkową lub osobistą (art. 190a § 2 KK)Utrwalanie wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo rozpowszechnianie wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody (art. 191a § 1 KK)Prezentowanie małoletniemu poniżej lat 15 treści pornograficznych albo rozpowszechnianie treści pornograficznych w sposób umożliwiający takiemu małoletniemu zapoznanie się z nimi (art. 200 § 3 KK)Prowadzenie reklamy lub promocji działalności polegającej na rozpowszechnianiu treści pornograficznych w sposób umożliwiający zapoznanie się z nimi małoletniemu poniżej lat 15 (art. 200 § 5 KK)Nawiązywanie kontaktu z małoletnim poniżej 15 lat, za pośrednictwem systemu teleinformatycznego lub sieci telekomunikacyjnej, w celu popełnienia przestępstwa seksualnego (art. 200a KK)Publiczne propagowanie lub pochwalanie zachowań o charakterze pedofilskim (art. 200b KK)Publiczne prezentowanie, produkcja, rozpowszechnianie, przechowywanie treści pornograficznych, zwłaszcza z udziałem małoletnich (art. 202 § 1, 3–4c KK)Zawiadomienie o nieistniejącym zagrożeniu, wywołujące działania instytucji publicznych (art. 224a KK);Publiczne propagowanie totalitarnych ideologii (nazizmu, komunizmu, faszyzmu lub innego ustroju totalitarnego) lub nawoływanie do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość (art. 256 § 1 i 1a KK)Produkowanie, utrwalanie lub sprowadzanie, nabywanie, zbywanie, oferowanie, przechowywanie, posiadanie, prezentowanie treści określonych w art. 256 § 1 i 1a, użytej w sposób służący propagowaniu tej treści (art. 256 § 2 KK)Publiczne znieważenie grupy ludności albo osoby lub naruszenie nietykalności cielesnej osoby z powodu przynależności narodowej, etnicznej, rasowej, wyznaniowej (art. 257 KK)Doprowadzenie do niekorzystnego rozporządzenia mieniem przez wprowadzenie w błąd (art. 286 § 1 i 2 KK)Oszustwo komputerowe (art. 287 § 1 KK)Naruszenie praw autorskich przez rozpowszechnianie utworów bez zgody autora (art. 116 ustawy o prawie autorskim i prawach pokrewnych)Uchylanie się od opodatkowania (art. 54 ustawy Kodeks karny skarbowy, dalej jako „KKS”)Oszustwo podatkowe (art. 56 KKS)Niewystawienie faktury lub rachunku (art. 62 KKS)Sprzedaż bez uprzedniego prawidłowego oznaczenia znakami akcyzy (art. 63a KKS)Oszustwo celne (art. 87 KKS)Zakaz sprzedaży na odległość wyrobów tytoniowych (art. 12c pkt 5 ustawy o ochronie zdrowia przed następstwami używania tytoniu i wyrobów tytoniowych)Podrobiony znak towarowy (art. 305 ustawy prawo własności przemysłowej).Kontrowersyjna kategoria – mowa nienawiści. Mowa nienawiści to nie zwykły „hejt”, a tym bardziej (nawet ostra) krytyka. W polskim prawie to bardzo konkretne czyny zabronione opisane w art. 256 i 257 KK. Obejmują skrajne wypowiedzi o podłożu dyskryminacyjnym skierowane przeciwko jasno określonym grupom (narodowym, etnicznym, rasowym, wyznaniowym).Ale uwaga: przepisy zawarte w artykułach 256 i 257 kodeksu karnego nie obejmują wszystkich grup społecznych – np. nie odnoszą się do polityków ani do osób LGBT+.Krytyka, nawet najsurowsza, skierowana np. wobec migrantów, o ile nie zawiera gróźb śmierci, przemocy seksualnej, nawoływania do eksterminacji ani innych skrajnie agresywnych treści, nie powinna być automatycznie uznawana za mowę nienawiści. Aby do niej doszło, wypowiedź musi przekroczyć określony próg – i to w praktyce dość wysoki (wiele spraw jest umarzanych).Cenzura w unijnym rozporządzeniu DSARegulacja platform internetowych wzbudza emocje przede wszystkim na… największych platformach. To ich działalność powoduje największe szkody. Są to takie usługi, jak najpopularniejsze media społecznościowe, platformy pornograficzne czy e-commerce (Shein, Temu).Tutaj lista wielkich wyszukiwarek i platform.To tych podmiotów dotyczą najdalej idące obowiązki wynikające z DSA. I to one najwięcej zyskają na niewdrażaniu prawa. Ruszyły więc z kampanią podsycającą nieufność wobec regulacji. Widać to nawet teraz w ostrej krytyce m.in. firmy Alphabet, spółki macierzystej Google.Wskazywała ona niedawno, że DSA zagraża wolności słowa na całym świecie, i podała tę informację w kontekście ujawnionych nacisków administracji byłego prezydenta USA, Joe Bidena, na YouTubie. Dlaczego działania prezydenta USA miałyby być przykładem na złe wdrożenia prawa w Europie? Dorota Głowacka Autorka Maria Wróblewska, Dominika ChachułaWspółpraca Linki i dokumenty Tak dla ochrony Polaków w sieci – nie dla interesów globalnych korporacji [brief listopad 2025]227.52 KBpdf Temat Odpowiedzialność pośredników za treści w Internecie Internet nowy cyfrowy ład media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Platformy vs wolność słowa. Rozmowa z Anną Mazgal i Dorotą Głowacką Co powinno zostawać w sieci, a co z niej znikać? I kto powinien o tym decydować? Po blokadzie Prezydenta Trumpa w mediach społecznościowych, na nowo rozgorzała dyskusja o cenzurze i regulacji usuwania treści w Internecie. Tak się składa, że zarówno Komisja Europejska jak i Minister Ziobro pracują… 28.01.2021 Dźwięk Artykuł Zapraszamy na panel: Rola mediów społecznościowych w demokracji [czwartek, 25.03, godz. 17:30] Zapraszamy na dyskusję pt. Rola mediów społecznościowych w demokracji (czwartek 25.03, godz. 17:30). W dyskusji udział wezmą: Anna Roszman (Odsłuch społeczny) Katarzyna Szymielewicz (Fundacja Panoptykon) Adrian Zandberg (Poseł na Sejm RP, Lewica Razem) Moderacja: Adam Jaśkow | Centrum im.… 25.03.2021 Tekst Podcast Jak technologia wpływa na środowisko? Rozmowa z Joanną Murzyn „Przed snem wysłałem kilka maili, przeczytałem wiadomości na dwóch portalach, przez godzinę oglądałem film” – brzmi jak małe czynności? A zastanawiasz się, ile twój wieczór kosztował planetę? 05.05.2022 Dźwięk
Tak dla ochrony Polaków w sieci – nie dla interesów globalnych korporacji [brief listopad 2025]227.52 KBpdf