Jak ograniczyć dostęp dzieci do pornografii?

Artykuł
24.04.2025
12 min. czytania
Tekst
Image
Dziecko w czapce trzema telefon

Rząd chce ograniczyć dzieciom dostęp do pornografii w sieci. Słusznie, ale sposobem na to ma być weryfikacja wieku. Domagamy się poprawienia projektu ustawy w taki sposób, żeby zabezpieczyć prawo do prywatności użytkowników i nie doprowadzić do blokowania treści mających na celu np. edukację seksualną.

Ministerstwo Cyfryzacji przedstawiło projekt ustawy o ochronie małoletnich przed dostępem do treści szkodliwych w Internecie. Autorzy m.in. chcą, żeby usługodawcy internetowi „oferujący dostęp do treści pornograficznych” mieli obowiązek weryfikować wiek użytkowników i użytkowniczek. Za niedopełnienie tego obowiązku groziłaby blokada witryny i kary finansowe.

Prywatność jest dla wszystkich

Przekaż 1,5% podatku Fundacji Panoptykon

KRS 0000327613

Panoptykon wysyła opinię ws. weryfikacji wieku i definicji pornografii

Ograniczenie dostępu do konkretnych rodzajów stron zawsze rodzi pytania o ochronę wolności słowa i prywatności. Dlatego przesłaliśmy do Ministerstwa Cyfryzacji opinię, w której zwróciliśmy uwagę na fakt, że projekt nie precyzuje, jakich dokładnie serwisów ma dotyczyć obowiązek weryfikacji wieku. Niejasna jest także definicja materiałów pornograficznych.

Uważamy też, że z problemem ochrony małoletnich na platformach mierzy się w pewnym zakresie obowiązujący już akt o usługach cyfrowych (DSA) i – zamiast powielać rozwiązania w nim zawarte – lepiej skupić się na jego egzekwowaniu.

Ale po kolei!

Jakie strony będą musiały weryfikować wiek?

Po przeczytaniu projektu ustawy wciąż nie mieliśmy jasności, jakie strony będą zobowiązane do weryfikowania wieku odwiedzających.

W projekcie posłużono się określeniem „usługodawców oferujących dostęp do treści pornograficznych” (art. 4 ust. 1), a także zamiennie – jak się wydaje – szerszym pojęciem: „domen umożliwiających dostęp do treści pornograficznych bez uprzedniej weryfikacji wieku” (art. 6 ust. 1). […]

Trudno więc określić na gruncie tak sformułowanego przepisu, w jakim zakresie obowiązek ten odnosi się chociażby do wielkich platform społecznościowych, mniejszych platform, jak np. Wykop.pl, czy wszelkich stron hostujących treści zamieszczane przez użytkowników, w tym np. internetowych stron prasy zawierających sekcję komentarzy.

Choć nie są to witryny nakierowane na dystrybucję treści pornograficznych, mogą stać się kanałem rozpowszechniania takich materiałów na skutek zamieszczania tego typu publikacji przez osoby trzecie.

Fragment opinii Fundacji Panoptykon do projektu ustawy o ochronie małoletnich (projekt ustawy)

A co o sięganiu po treści dla dorosłych mówią dane? Niektóre analizy (np. badanie NASK) sugerują, że młodzież sięga po pornografię głównie za pośrednictwem platform, które specjalizują się w tego rodzaju treściach.

Jeśli rząd chce chronić dzieci przed aktywnym sięganiem po pornografię online, niech nałoży obowiązek weryfikacji wieku na takie platformy. Nie powinien jednak rozszerzać go na inne serwisy, których celem nie jest dostarczanie pornografii. W dodatku sama weryfikacja musi odbywać się z poszanowaniem prywatności i bezpiecznie dla danych osobowych.

Co to są „treści pornograficzne”?

W projekcie nie zdefiniowano pojęcia treści pornograficznych, co jeszcze bardziej utrudnia zrozumienie, jakie serwisy będą miały dodatkowy obowiązek (i kto może zostać ukarany za jego nieprzestrzeganie).

Projektodawca uzasadnia tę decyzję [braku definicji „treści pornograficznych”], odwołując się do istnienia „wieloletniego dorobku orzeczniczego, doktrynalnego i międzynarodowego”, w których wypracowano definicję tego pojęcia, co – jego zdaniem – sprawia, że definiowanie go w projektowanej ustawie „nie jest potrzebne”.

Fragment opinii Fundacji Panoptykon

Czyli koń jaki jest, każdy widzi? Po przeczytaniu uzasadnienia projektu zaczęliśmy mieć wrażenie, że w zamysłach autorów występują całkiem różne „konie”:

Przytoczone w uzasadnieniu projektu przykłady definicji „treści pornograficznych” mają bardzo zróżnicowany charakter […]. Niektóre z przytoczonych definicji kładą nacisk na takie aspekty, jak główny cel rozpowszechniania danego materiału w postaci „wywołania podniecenia seksualnego u odbiorcy”, podczas gdy inne ograniczają się do wskazania, że do uznania danego materiału za pornografię wystarczy „prezentacja czynności seksualnych człowieka”.

Fragment opinii Fundacji Panoptykon

Może się wydawać, że zwracamy uwagę na rzecz błahą, ale to nieprawda. Jeśli definicja pornografii pójdzie w stronę zrównania jej z „prezentacją czynności seksualnych człowieka”, to mamy obawę, że obejmie ona także treści edukacyjne, naukowe czy artystyczne dotyczące seksualności człowieka, ale niemające nic wspólnego z tym, co serwują platformy „dla dorosłych”.

Image
Dziecko podświetlone światłem laptopa

„Jeśli rząd chce chronić dzieci przed aktywnym sięganiem po pornografię online, niech nałoży obowiązek weryfikacji wieku na takie platformy. Nie powinien jednak rozszerzać go na inne serwisy, których celem nie jest dostarczanie pornografii”. Zdjęcie: Shutterstock

Ostatecznie o tym będzie decydował Prezes Urzędu Komunikacji Elektronicznej, do którego – według projektu – trafiać będą wnioski o blokowanie.

Kara za zbyt łatwy dostęp do pornografii

Pamiętajmy, że za złamanie przepisów będzie groziła blokada dostępu do strony i kara finansowa. Znamy już zjawiska copyright trollingu czy RODO trollingu. Byłoby źle, gdyby nowe przepisy zostały wykorzystane instrumentalnie np. przez środowiska sprzeciwiające się edukacji seksualnej czy reprezentujące purytańskie podejście do sztuki.

A przykładów tego, że ofiarami cenzury z klucza pornografii padają biblioteki, szkoły czy sztuka, nie brakuje. Rodzice z Florydy doprowadzili do odejścia z pracy nauczycielki, która w ramach lekcji o sztuce renesansu pokazała dzieciom zdjęcie rzeźby Michała Anioła przedstawiającej nagiego Dawida.

Z kolei w Warszawie niedawno wybuchła awantura wokół komiksu Gender queer. Autobiografia. Dla jednych to „pornografia dziecięca”, dla innych – „pożyteczny oraz poruszający przewodnik, który przybliża aktywistom, przyjaciołom i ludziom na całym świecie problematykę tożsamości płciowej”. Burzę wywołała też propozycja wprowadzenia do szkół obowiązkowych lekcji edukacji zdrowotnej.

Brak określenia definicji sprawi, że interpretacja przepisu będzie nieprzewidywalna, a cała ustawa, która miała chronić dzieci, odetnie je od ważnej wiedzy na temat zdrowia, a całemu społeczeństwu narzuci ciasny gorset, w jakim będzie musiała się zmieścić sztuka.

Udostępniasz małoletnim „szkodliwe treści”? W projekcie nie ma ich definicji

W projekcie pojawia się też art. 3 dotyczący obowiązku „przeprowadzenia i udokumentowania analizy ryzyka związanego z umożliwieniem małoletniemu dostępu do treści szkodliwych”.

Co to są treści szkodliwe? Tego projekt również nie definiuje. Naszym zdaniem mogą to być treści pokazujące przemoc, samookaleczanie, niezdrowe podejście do odżywiania, nauki, zabawy i sportu, nierealistyczne oczekiwania estetyczne, treści redpillowe, niebezpieczne trendy czy wyzwania. Może to być także dezinformacja medyczna czy szczucie na migrantów. Lista jest długa. Niestety nie wiemy, co konkretnie autor projektu miał na myśli. Nietrudno sobie wyobrazić, że interpretacja – w jeszcze większym stopniu niż w przypadku treści pornograficznych – mogłaby zależeć od światopoglądu rozpatrującego.

Osób, które będą musiały zmierzyć się z wyzwaniem interpretacji, będzie całkiem sporo, bo przez brak definicji taką analizę ryzyka musiałby przeprowadzić w zasadzie każdy administrator strony internetowej – od witryn gabinetów dentystycznych, przez media i organizacje społeczne. Zwolnieni z obowiązku byliby ci, których obejmie obowiązek weryfikacji wieku, opisany wcześniej.

Ale mamy też „dobrą” wiadomość. Z takiej analizy nie wynikałyby żadne dalsze obowiązki (takie jak konieczność wprowadzenia odpowiednich środków minimalizujących ryzyka)! Czemu więc miałaby ona służyć?

Projekt ustawy o ochronie małoletnich powiela zresztą rozwiązanie znane z unijnego aktu o usługach cyfrowych (na dzień publikacji tego artykułu wciąż niewdrożonego w Polsce). W opinii zauważyliśmy również, że akt w stosunku do ochrony małoletnich w sieci idzie nawet dalej: […] [W]yjaśnienia wymaga, czy przepis ten wnosi jakąkolwiek korzyść w kontekście już obowiązujących wymogów związanych z mechanizmem oceny ryzyka, którą mają obowiązek przeprowadzać bardzo duże platformy internetowe i bardzo duże wyszukiwarki internetowe na gruncie art. 34–35 aktu o usługach cyfrowych (DSA), m.in. również pod kątem „możliwych zagrożeń dla ochrony zdrowia publicznego i małoletnich oraz poważnych negatywnych skutków dla fizycznego i psychicznego dobrostanu osoby”.

Ponadto, zgodnie z DSA, wszystkie platformy dostępne dla małoletnich mają obowiązek wprowadzić „odpowiednie i proporcjonalne środki, aby zapewnić wysoki poziom prywatności, bezpieczeństwa i ochrony małoletnich w ramach świadczonych przez siebie usług” (art. 28 ust. 1 DSA), co wydaje się dalej idącym wymogiem niż ten wynikający z aktualnego brzmienia art. 3 projektu.

Fragment opinii Fundacji Panoptykon

Nie ma powodu powielać rozwiązań przewidzianych w DSA, można je egzekwować. Na przykład domagać się od największych platform wzięcia odpowiedzialności za szkodliwość ich działania. Bo to Instagram, TikTok czy YouTube odpowiadają za przykuwanie dzieci do ekranów i to one wystawiają je na najwięcej szkodliwych treści.

Przeczytaj nasze analizy ocen ryzyka VLOP-ów: YouTube’a, TikToka i Facebooka.

Czy da się weryfikować wiek w Internecie, nie naruszając przy tym prywatności?

Jak teraz weryfikuje się wiek? Dostępne metody obejmują deklaratywne kliknięcie w okienko „mam 18 lat”, jak i te wymagające więcej zachodu (i danych): skanowanie dowodu osobistego, symboliczna płatność przelewem, podanie danych karty kredytowej czy skanowanie twarzy. Pojawiają się też pomysły w rodzaju zakupu tokenu na stacji benzynowej. Wiele metod weryfikacji wieku w Internecie jest inwazyjnych, a do tego nieskutecznych. Niektóre wystawiają osoby weryfikowane na łup cyberprzestępców.

Czy w ogóle istnieje prosty, bezpieczny i szanujący prywatność sposób weryfikacji wieku w sieci? Wiele organizacji i instytucji (m.in. European Digital Rights, której członkiem jest Panoptykon) czy francuski organ ochrony danych CNIL twierdzi, że nie istnieje.

Spytaliśmy znajomego hakera, specjalisty ds. bezpieczeństwa, czy jest możliwa weryfikacja wieku dbająca o prywatność. Jak to mogłoby działać z perspektywy osoby odwiedzającej stronę (w dużym skrócie):

  1. Wchodzisz na stronę wymagającą weryfikacji wieku. Strona wyświetla kod QR zawierający programistycznie zapisane pytanie (np. „czy osoba logująca się w tej chwili na tę stronę jest starsza niż N lat”).
  2. Skanujesz kod QR zaufaną aplikacją.
  3. Aplikacja pyta cię, czy chcesz udzielić odpowiedzi na pytanie strony (zweryfikować wiek).
  4. Jeśli tak, aplikacja wysyła to programistycznie zapisane pytanie do serwera e-ID.
  5. Zapytanie nie zawiera informacji, jaka strona prosi o tę informację, ale jest podpisane kluczem osoby korzystającej z aplikacji (a więc osoby, której wiek jest weryfikowany).
    Serwer e-ID odpowiada „tak” lub „nie”. Odpowiedź (zawierającą również oryginalne zapytanie) podpisuje swoim kluczem prywatnym.
  6. Aplikacja przekazuje odpowiedź podpisaną kluczem e-ID stronie, z której przyszło zapytanie. W tym celu posługuje się zapisanym w kodzie QR adresem URL.
  7. Za pomocą publicznego klucza serwera e-ID strona weryfikuje, czy odpowiedź jest podpisana poprawnie.

To oznacza, że strona weryfikująca wiek dostaje odpowiedź, której może zaufać, ale nie dostaje przy tym żadnych informacji na twój temat. Rządowa usługa e-ID nie wie, jaką stronę chcesz odwiedzić.

Zaufaną aplikacją może być mObywatel (pod warunkiem, że byłby otwartoźródłowy i poddany audytowi), ale nie musi. Może to być dowolna aplikacja implementująca taki protokół.*

Odpowiadał: Michał „rysiek” Woźniak

* Opis tego „protokołu” jest oczywiście bardzo uproszczony i nie jest to jedyna metoda stworzenia przyjaznego prywatności rozwiązania weryfikacji wieku. Inne mogłyby wykorzystywać np. dowody o wiedzy zerowej lub podobne zaawansowane techniki kryptograficzne, zwiększające skuteczność ochrony prywatności. Więcej na ten temat na blogu ryśka.

Kiedy ujawniliśmy, że w Panoptykonie nie przeszkadza nam weryfikacja wieku na platformach z pornografią, spotkaliśmy się z reakcjami pełnymi niedowierzania. Jak to – Panoptykon za weryfikacją wieku?

A tak! Uważamy jednak, że ten obowiązek powinien być ściśle ograniczony, a także – realizowany w sposób szanujący prywatność.

Projekt nie narzuca konkretnych mechanizmów weryfikacji wieku, ale Ministerstwo deklaruje, że pojawią się one w zaleceniach, których wydanie w późniejszym terminie przewiduje ustawa. Już teraz jednak wykluczono wykorzystanie do weryfikacji wieku biometrii i wprowadzono kilka innych gwarancji zwiększających ochronę danych, np. skonsultowanie przyszłych zaleceń z Prezesem Urzędu Ochrony Danych Osobowych.

Zmiany powinny objąć przede wszystkim największe platformy

Pamiętajmy, że odcięcie dzieci od pornografii nie jest rozwiązaniem innych problemów: molestowania, groomingu, cyberprzemocy, przemocy rówieśniczej, wykorzystania deepfake’ów do nękania. Poza tym problemem nie zawsze jest kwestia ekspozycji dzieci na „obiektywnie” szkodliwe treści, takie jak pornografia czy sceny przemocy, ale personalizacja wyświetlanych materiałów obliczona na wywoływanie jak największego zaangażowania. To ona powoduje, że osoba widzi treści dla innych neutralne, ale dla niej osobiście szkodliwe – wzmacniające lęki czy wpędzające w zły nastrój. Tych problemów nie rozwiąże weryfikacja wieku ani sama analiza, czy dana platforma serwuje określone rodzaje „szkodliwych treści”.

Kompleksowa odpowiedź na cyfrowe zagrożenia wymaga systemowych zmian w funkcjonowaniu przede wszystkim największych platform społecznościowych. Chodzi m.in. o wyegzekwowanie od nich zmiany działania systemów rekomendacyjnych czy ograniczenie wykorzystywania mechanizmów hazardowych w social mediach. Dlatego w Panoptykonie skupiamy się na big techu – choć wiemy, że zmiany w biznesie globalnych korporacji wyegzekwować trudniej niż postawić w wybranych serwisach bramkę sprawdzającą pełnoletność.

Anna Obem, Dominika Chachuła
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.