Artykuł 12.03.2026 9 min. czytania Tekst Image Zakończyły się konsultacje projektów przepisów dotyczących regulacji Internetu. Pierwszy wdraża DSA w Polsce – ale zabrakło w nim ważnych rozwiązań wzmacniających pozycję użytkowników i użytkowniczek wobec platform internetowych. Drugi ma rozwiązać problem uznaniowych decyzji moderacyjnych na platformach internetowych – ale nie odpowiada na wątpliwości podane jako uzasadnienie styczniowego weta Prezydenta.Przekaż 1,5% podatku Fundacji Panoptykon.Pomóż kontrolować kontrolujących!KRS: 0000327613W styczniu Prezydent Karol Nawrocki zawetował nowelizację ustawy o świadczeniu usług drogą elektroniczną, która wdrażała do polskiego porządku prawnego akt o usługach cyfrowych (DSA). Uzasadniając weto, prezydent przyznał, że wdrożenie DSA jest pilnie potrzebne, ale sprzeciwił się rozwiązaniom, które jego zdaniem niosły ryzyko cenzury ze strony urzędników i urzędniczek. Odrzucił też pomysł dofinansowania z budżetu państwa tzw. zaufanych podmiotów sygnalizujących, czyli organizacji mających wspierać walkę z bezprawnymi treściami na platformach.Sprawdziliśmy argumenty Prezydenta za wetem ustawy wdrażającej DSA. Przeczytaj naszą analizę.W odpowiedzi Ministerstwo Cyfryzacji rozbiło ustawę na dwa osobne projekty.W pierwszym koncentruje się na wdrożeniu DSA, czyli m.in. na powołaniu koordynatora ds. usług cyfrowych czy uregulowaniu zasad certyfikowania organów pozasądowego rozstrzygania sporów, przyznawania statusu zaufanych podmiotów sygnalizujących i rozpatrywania wniosków o status zweryfikowanego badacza lub badaczki.Drugi projekt skupia się na możliwości wydawania przez Prezesa Urzędu Komunikacji Elektronicznej i Przewodniczącego Krajowej Rady Radiofonii i Telewizji nakazów blokowania treści oraz przywracania niesłusznie usuniętych kont lub treści.Z obydwoma projektami są problemy.Opinia Fundacji Panoptykon do projektów nr UC140 oraz UC141 o zmianie ustawy o świadczeniu usług drogą elektroniczną oraz niektórych innych ustaw z 6 lutego 2026 r. – do pobrania pod tekstemWdrożenie DSA bez ważnych rozwiązań chroniących użytkowników i użytkowniczki sieciW pierwszym projekcie – tym, który wdraża w Polsce DSA – zabrakło rozwiązań, które wzmacniałyby pozycję użytkowników i użytkowniczek sieci w sporach z platformami internetowymi. Chodzi o:Możliwość ubiegania się o wsparcie finansowe państwa dla stworzenia organów pozasądowego rozstrzygania sporów;Takie instytucje mają za zadanie pomóc użytkownikom i użytkowniczkom w sporach z platformami, gdy te niesłusznie usuną ich treści lub konta, a także gdy nie reagują na zgłoszenie bezprawnej treści lub odmawiają jej usunięcia.To rozwiązanie jest zgodne z samym DSA:Państwa członkowskie mogą ustanowić organy pozasądowego rozstrzygania sporów do celów określonych w ust. 1 lub mogą wspierać działania niektórych lub wszystkich organów pozasądowego rozstrzygania sporów, które państwa te certyfikowały zgodnie z ust. 3.Art. 21 ust. 6 DSAW poprzednim rozdaniu przekonaliśmy Ministerstwo Cyfryzacji, że wsparcie finansowe jest potrzebne, żeby takie organy w ogóle w Polsce powstały.Stworzenie Krajowej Rady ds. Usług Cyfrowych.Rada miała pełnić rolę forum stałej współpracy koordynatora ds. usług cyfrowych ze stroną społeczną, a tym samym umożliwiać kontrolę działań samego koordynatora.Prezydent nie krytykował stworzenia Rady, tak że usunięcie tego rozwiązania nie powinno być podyktowane obawą przed kolejnym wetem. Czyżby to Ministerstwo Cyfryzacji obawiało się kontroli obywatelskiej nad działaniami Prezesa UKE (który ma pełnić rolę koordynatora ds. usług cyfrowych)?W opinii przesłanej Ministerstwu podkreślamy, że te rozwiązania powinny z powrotem znaleźć się w projekcie. Dzięki temu będzie można przekonywać Prezydenta do poparcia rozwiązań proponowanych w drugiej ustawie. Wprawdzie drugi projekt nie dotyczy koordynatora ds. usług cyfrowych, tylko Prezesa UKE – ale ponieważ funkcję tę pełni ta sama osoba, do tego powoływana przez Sejm na wniosek Premiera, uproszczenia jak „urzędnik rządowy będzie cenzurował Internet” mogą się pojawiać. Rada pełniąca rolę doradczą i kontrolną pomagałaby rozbrajać te obawy.Czy Prezydent pomoże niesłusznie zablokowanymZgodnie z drugim projektem w szczegółowo określonym katalogu przypadków Prezes Urzędu Komunikacji Elektronicznej i Przewodniczący Krajowej Rady Radiofonii i Telewizji mieliby mieć prawo wydawania nakazów blokowania treści. Dokument zakłada też, że organy te mogłyby nakazywać przywracanie niesłusznie usuniętych przez usługodawców internetowych kont lub treści.Te rozwiązania nie stanowią obowiązkowego elementu wdrożenia DSA i zapewne dlatego zostały wydzielone do osobnego projektu ustawy. Zostały tam przeniesione praktycznie bez żadnych zmian z ustawy, której podpisania w styczniu odmówił Prezydent.Zastrzeżenia Prezydenta wzbudziła procedura wydawania nakazów blokowania treści, dlatego można się spodziewać, że i tym razem jej nie zaakceptuje. A to oznacza, że „przy okazji” nie zostanie wprowadzona również bardzo istotna, a przy tym budząca raczej ponadpartyjne poparcie procedura dla osób niesłusznie zablokowanych przez platformy.Dlatego w naszej opinii do projektów zaproponowaliśmy kompromis dotyczący procedury blokowania: zawężenie katalogu przestępstw, jakimi mogliby zajmować się Prezes UKE i Przewodniczący KRRiT, oraz rozdzielenie go na dwie grupy – obie objęte nieco innymi procedurami.Zawężenie katalogu przestępstw, przy których Prezes UKE i Przewodniczący KRRiT mogliby wydawać nakazy blokowania treści.Proponujemy wyeliminowanie z tego katalogu art. 116 ustawy o prawie autorskim i prawach pokrewnych, czyli elementu, który wzbudza zastrzeżenia zarówno ze strony Pana Prezydenta Karola Nawrockiego, jak i wielu organizacji społecznych.Podzielenie katalogu przestępstw na dwie grupy i zastosowanie do nich różnych procedur.Chodzi o to, by wprowadzić odrębne ścieżki oceny dla takich treści, które mogą naruszać prawo, ale przy tym ich zwalczanie nie budzi większych obaw o ingerencję w wolność słowa, oraz tych, które mogą wiązać się z większym ryzykiem sporów o granice swobody wypowiedzi w debacie publicznej.Ochrona dzieci w sieciTreści, które mogą stanowić grooming, ekspozycję dzieci na pornografię, promocję pedofilii, rozpowszechnianie obrazów seksualnego wykorzystywania dzieci i nakłanianie do samobójstwa lub samookaleczenia (i naruszenie art. 200, 200a, 200b, 202, 151, 156a kodeksu karnego), powinny znikać z sieci jak najszybciej, co chroniłoby ofiary i maksymalnie ograniczało negatywne skutki publikacji.Jeśli decyzje o nakazaniu usunięcia takich treści miałyby pozostać w „pierwszej linii” w rękach Prezesa UKE lub Przewodniczącego KRRiT (jak chce Ministerstwo Cyfryzacji), organy te powinny mieć możliwość, aby w szczególnie uzasadnionych sytuacjach nadać im rygor natychmiastowej wykonalności.Autor miałby prawo wniesienia sprzeciwu do sądu, ale treści pozostawałyby wówczas niewidoczne, do momentu gdy sąd wyda wyrok na korzyść autora. W przeciwnym razie w praktyce samo wniesienie sprzeciwu „zamrażałoby” taki materiał w sieci na długie miesiące czy lata.Sąd zdecyduje o granicach wolności słowa?W przypadku treści, które mogą stanowić mowę nienawiści lub groźby karalne (i naruszać w związku z tym art. 119, 190, 256 czy 257 kodeksu karnego), a jednocześnie mogą pociągać za sobą większe ryzyko sporów dotyczących granic dopuszczalnej swobody wypowiedzi w debacie publicznej, proponujemy wprowadzenie odrębnej procedury.W takich sprawach najlepiej byłoby, aby pierwszą decyzję podejmował sąd (a nie Prezes UKE lub Przewodniczący KRRiT) działający w ramach specjalnej szybkiej ścieżki.Z jednej strony, odpowiada to na zarzut „urzędniczej cenzury” – bo od początku decydowałyby sądy, czyli instytucje najlepiej przygotowane do oceny, gdzie przebiegają konstytucyjne granice swobody wypowiedzi. Z drugiej – pozwalałoby to szybciej i skuteczniej usuwać z Internetu treści, które rzeczywiście stanowią wskazane przestępstwa (według aktualnej propozycji Ministerstwa Cyfryzacji złożenie przez autora treści do sądu sprzeciwu od decyzji Prezesa UKE lub Przewodniczącego KRRiT blokowałoby na dłuższy czas usunięcie z sieci szkodliwych materiałów).Dlaczego sąd miałby zajmować się tylko tą drugą grupą przypadków? Naszym zdaniem najlepszym rozwiązaniem byłoby, gdyby wszystkie spory o treści w sieci trafiały właśnie do sądu. Słyszymy jednak, że przy obecnych problemach wymiaru sprawiedliwości byłoby to trudne. Dlatego proponujemy, aby wprowadzić to rozwiązanie chociaż dla wąskiego zakresu spraw, co nie powinno nadmiernie obciążyć systemu.Dialog po polskuCzy jest szansa na kompromis, dzięki któremu nasze prawa w sieci będą wreszcie wzmocnione? Bez dialogu będzie ciężko.My jesteśmy otwarci, tak jak zapowiedziałem także w czasie wystąpienia. Jak najbardziej chętnie przyjmiemy zaproszenie do dialogu z państwem, dlatego że pan prezydent jasno w swoim uzasadnieniu do weta wyraził chęć przyjęcia, w formie oczywiście podpisu prezydenckiego na końcu, implementacji DSA, więc jak najbardziej jest tutaj pole do rozmowy. Chodzi o to, żebyśmy porozmawiali i w efekcie, żeby na końcu właśnie ten podpis był, bo myślę, że dla nas wszystkich będzie to z dobrym skutkiem.Adam Andruszkiewicz, sekretarz stanu w Kancelarii Prezydenta, podczas Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii, 12 lutego 2026 r. [zapis posiedzenia]Próbowaliśmy dowiedzieć się, czy Kancelaria Prezydenta pozostaje w dialogu z Ministerstwem Cyfryzacji – niestety, bez skutku. Dlatego 9 marca wysłaliśmy w tej sprawie oficjalne pismo do Kancelarii Prezydenta. Prezentujemy w nim nasze propozycje kompromisu i proponujemy spotkanie, aby je przedyskutować. Czekamy również na wyniki konsultacji i kolejne ruchy rządu. Dorota Głowacka Autorka Anna Obem Autorka Linki i dokumenty Opinia Fundacji Panoptykon ws. dwóch ustaw wdrażających DSA (luty 2026)377.98 KBpdf Temat Internet Odpowiedzialność pośredników za treści w Internecie media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Kto sprząta Internet podczas pandemii? Nie tylko prywatność może ucierpieć podczas pandemii. I nie tylko z powodu działań podejmowanych przez rządy – uważajmy także na to, co w tym czasie robią platformy społecznościowe i jak może to wpłynąć na naszą wolność wypowiedzi i swobodny dostęp do informacji. 13.05.2020 Tekst Artykuł Gdzie jesteśmy z rozporządzeniem ePrivacy? Pamiętacie rozporządzenie ePrivacy? Miało ono wejść w życie razem z RODO i być specjalną regulacją dotyczącą prywatności w Internecie. Od ostatniego głosowania w europarlamencie upłynął już prawie rok, od listopada nad projektem pracuje Rada Unii Europejskiej – a końca prac nie widać. Mimo to… 28.09.2018 Tekst Podcast Debata: Big tech na wojnie. Rozmowa z Krzysztofem Izdebskim i Bartoszem Paszczą Rosyjska wojna propagandowa zaczęła się na długo przed militarną agresją. Od tygodnia obserwujemy potworny spektakl przemocy, która przecież wyrosła na nacjonalistycznej i ksenofobicznej narracji, jaką rosyjskie władze i kontrolowane przez nie media budowały przynajmniej od 2014 r. Jednym z… 03.03.2022 Dźwięk