Zakaz mediów społecznościowych nie rozwiąże problemu. Potrzebujemy bezpiecznej publicznej przestrzeni w sieci

Artykuł
08.04.2026
12 min. czytania
Tekst
Image
Ilustracja dziecka stojącego przed wielkim telefonem

To kluczowy moment, żeby zadbać o bezpieczeństwo dzieci w Internecie. Jednak polskie zakazy mają niewielkie szanse powodzenia w zderzeniu z globalnymi platformami pokroju TikToka, Instagrama, YouTube’a czy Snapchata. Za to narzucenie tym platformom obowiązku bezpiecznego projektowania w całej Unii Europejskiej – zmieniłoby wszystko.

Dzielenie świata na offline i online jest coraz bardziej oddalone od doświadczenia młodych ludzi. Dla wielu z nich sesja grania online jest ekwiwalentem spotkania na żywo. W obu przestrzeniach obowiązują  inne reguły. W świecie offline to producent musi udowodnić, że jego produkt jest bezpieczny dla dzieci. A jeśli wiemy, że nie jest – jako obywatele i obywatelki narzucamy ograniczenia wiekowe. 15-latek nie powinien kupić alkoholu ani wejść do kasyna czy klubu dla osób dorosłych.

Przekaż 1,5% podatku Fundacji Panoptykon.

Pomóż kontrolować kontrolujących!

KRS: 0000327613

Platformy żerujące na uwadze i wykorzystujące słabości dzieci można, bez większego nadużycia, porównać do salonu gier z automatami czy nocnego klubu z używkami. Na wejściu stoi co prawda bramkarz, który udaje, że to klub dla osób 13+. W rzeczywistości wpuszcza każdego, kto podejdzie, bo to oznacza większy zysk. Dlatego z Facebooka i TikToka korzystają już 7-latki. W Polsce 58% dzieci w wieku 7-12 lat ma konto na przynajmniej jednej platformie (anty)społecznościowej. I – jak pokazują liczne badania – nie są tam bezpieczne.

Bezpieczne dziecko w sieci? Rodzice się martwią i oczekują wsparcia

Według badań More in Common Polska 89% rodziców boi się o swoje dzieci w sieci. Nic dziwnego. W mediach nie brakuje dramatycznych historii dzieci i nastolatków, które platformy (anty)społecznościowe wciągnęły w króliczą norę treści o samookaleczeniach, wystawiły na kontakt z pornografią czy internetowy hejt. Niezależne badania i doniesienia z sal sądowych dostarczają danych, których nie sposób ignorować. 25 marca 2026 r. ława przysięgłych w Kalifornii uznała Metę i Google za winne celowego projektowania usług w taki sposób, żeby wyzyskiwać słabości (w tym podatność na uzależnienie) dzieci i nastolatków. Zaledwie dzień wcześniej sąd w Nowym Meksyku uznał, że Meta celowo ignorowała fakt, że jej usługi pozwalają na grooming (uwodzenie dzieci przez osoby dorosłe).

Rodzice przyznają się do bezradności: aż 87% deklaruje, że w tym starciu oczekuje wsparcia ze strony instytucji publicznych.

Powody mogą być różne. Ci najbardziej świadomi mają poczucie walki z wiatrakami. Bo choć w domu dzieci mogą korzystać ze smartfonu tylko w określonych celach i najczęściej w asyście, wystarczy, że przekroczą próg, by na osiedlowym lub szkolnym podwórku raczyć się filmikami z krwawymi wypadkami, tiktokową pornografią czy hitami pokroju „Pij Wojanka”. Inni kupili 7-latkowi smartfon, bo „wszyscy w klasie mają”, ale czują, że nie nadążają za swoim dzieckiem i nie są w stanie skutecznie kontrolować korzystania z takiego urządzenia. Jeszcze inni widzą, że z ich dzieckiem dzieje się coś niedobrego i łączą to z niezdrowym stylem korzystania z mediów elektronicznych.

Odpowiedzialność za bezpieczeństwo dzieci powinna spoczywać na firmach, które projektują niebezpieczne produkty cyfrowe i zarabiają na nich. Nie możemy oczekiwać od rodziców, że przechytrzą operujące trylionami dolarów firmy skupione na wykorzystywaniu i manipulowaniu ich dziećmi.

Nowy, dobry Internet jest możliwy. Więcej: jest niezbędny.

Cory Doctorow, Enshittification: Why everything suddenly got worse and what to do about it

Image
Ilustracja dziecka samego w mieście

Internet jest jak miasto

Internet bywa porównywany do używek, które są dostępne tylko dla dorosłych. Naszym zdaniem trafniejsze byłoby porównanie do miasta – swoboda i samodzielność poruszania się po nim rośnie wraz z wiekiem.

Małe dzieci (3-, 5-latki) nie chodzą po mieście same (jeśli chodzą, to jest to problem w rodzinie i tam trzeba go rozwiązywać). Nie powinny też chodzić same po Internecie.

Większe dzieci poruszają się same w ograniczonym zakresie: na plac zabaw, do szkoły, na imprezę urodzinową czy do kina na wybrany przez rodzica film. W Internecie mogłyby oglądać wybrane przez opiekunów bajkę czy film, korzystać z odpowiedniej do wieku gry czy aplikacji edukacyjnej – pod kontrolą i na odpowiedzialność rodzica.

Z wiekiem dzieci zyskują większą mobilność. Samodzielnie robią zakupy, odwiedzają miejskie biblioteki. W Internecie – korzystają z wyszukiwarek, bezpiecznych komunikatorów – wszystkich tych miejsc, które projektowane są domyślnie jako bezpieczne (safe by default). I tak jak nie muszą się legitymować w spożywczaku, nie muszą też weryfikować wieku w bezpiecznych miejscach w Internecie.

Jeśli big techy chcą, żeby dzieci korzystały z ich usług, powinny dla nich i dla nas, dorosłych, zaprojektować bezpieczną przestrzeń publiczną (nieograniczoną bramkami). Bezpieczną, czyli bez profilowania, bez śledzenia i bez szkodliwych treści (propozycje rozwiązań – służących także dorosłym – opisujemy w materiałach Analog solutions for young people’s digital mental health crisis i Safe by Default).

W mieście działają też usługi stworzone z myślą o osobach, które przekroczyły określony próg wiekowy. Hulajnogi elektryczne – od 13. roku życia. Kluby nocne – od 18. roku życia. W kinach są wyświetlane filmy dla dorosłych, na które dzieci tak łatwo nie wejdą. Podobnie w Internecie są usługi, które powinny być dostępne dopiero po zweryfikowaniu wieku. W tej kategorii są strony z hazardem, pornografią czy platformy z grami z ograniczeniem wiekowym, ale też platformy (anty)społecznościowe. Jak dowodzą śledztwa Komisji Europejskiej, platformy nie są w stanie wyeliminować reklam produktów „nie dla dzieci”, cyberprzemocy, groomingu, pornografii, treści zawierających CSAM itd.

Zostawianie dzieci bez opieki, eksponowanie ich na kontakt z pornografią, sprzedawanie alkoholu, wpuszczanie ich do klubów nocnych – za to wszystko grożą konsekwencje prawne. Właściciel monopolowego może stracić licencję, rodzic – zostać objęty kuratelą sądową, a nawet stracić prawo do opieki. Ale w świecie offline nie poprzestajemy na zakazach i karach. Miasta projektujemy w sposób bezpieczny (place zabaw mają bezpieczną nawierzchnię, ulice są oświetlone itd.). Nieraz popadamy wręcz w przesadę, instalując „inteligentne” kamery i grodząc przestrzeń publiczną.

Jeśli chodzi o platformy (anty)społecznościowe, wahadło przechylone jest w drugą stronę. Usługi projektowane „dla dorosłych” bez większych przeszkód są dostępne dla dzieci. Wypadek przy pracy? Bynajmniej! Platformy internetowe to przestrzenie monitorowane ściślej niż nasze miasta. Ich właściciele doskonale wiedzą, kto się kręci po uliczkach, z kim przestaje i co kupuje. Nie tylko tolerują obecność dzieci w tych niebezpiecznych zaułkach, ale na niej zarabiają.

Dlatego tu i teraz nie mamy innego wyjścia niż stawianie twardych ograniczeń wiekowych – i egzekwowanie ich. Dopóki platformy (anty)społecznościowe nie zapewniają bezpieczeństwa dzieciom, te nie powinny mieć do nich dostępu. Skorumpowanych bramkarzy powinny zastąpić automatyczne bramki – systemy niezależne od samych platform, które nie śledzą przechodzących, nie profilują ich i nie wysyłają nigdzie ich danych osobowych. A zarazem są szczelne i nie przepuszczają osób młodszych niż dopuszcza prawo albo regulamin platformy. Tą drogą idą polscy politycy i polityczki, proponując ustawę o podniesieniu wieku korzystania z social mediów.

Przestrzegamy jednak polityków, że w dłuższym horyzoncie ta polityka niewiele zmieni – co najwyżej przesunie problemy, jakich doświadczają młodzi ludzie w sieci, o parę lat. Dlatego zamiast skupiać się na blokowaniu dzieciom dostępu do kuszących, wciągających produktów cyfrowych (i mieć nadzieję, że te blokady zadziałają), europejscy i krajowi regulatorzy powinni zewrzeć szyki, żeby te produkty naprawić. A konkretnie zmusić firmy technologiczne do ich naprawienia. A jeśli te się nie zgodzą, powinniśmy odebrać im prawo do świadczenia usług w UE (a mamy taką możliwość dzięki DSA). Dostęp do wspólnego europejskiego rynku powinien być przywilejem, a nie prawem (na pewno nie „prawem silniejszego”).

Zakaz social mediów do 15. roku życia. Co wiemy o ustawie?

W ramach tzw. ustawy 15+ dyskutowane jest podniesienie wieku, od którego będzie można korzystać z platform (anty)społecznościowych – z obecnych 13 do 15 lat. Nie poznaliśmy jeszcze treści proponowanej regulacji ani nawet jej założeń.

Z wypowiedzi polityków wynika, że ograniczenie ma dotyczyć wszystkich platform, z których korzystają dzieci. Czyli zarówno mało popularnego wśród dzieci Facebooka (który ostatnio przegrał w USA proces dotyczący uzależniającego projektowania i szkodliwego algorytmu), jak i bardzo popularnego wśród nich Robloxa (który od dłuższego czasu mierzy się z zarzutami o design umożliwiający nieznajomym dorosłym kontakt z nawet 4-latkami).

Dzisiaj platformy same weryfikują wiek użytkowników i użytkowniczek i mimo własnych regulaminów mówiących, że można korzystać z ich usług od 13. roku życia, Facebook, TikTok czy YouTube masowo wpuszczają dzieci nawet 7-letnie.

Dlatego samo podniesienie progu wejścia z 13. do 15. roku życia nie zmieni aktualnej sytuacji. Potrzebne jest skuteczne egzekwowanie tego ograniczenia. Według zapowiedzi weryfikacja wieku miałaby odbywać się w oparciu o europejski portfel tożsamości cyfrowej – Ministerstwo Cyfryzacji pracuje obecnie nad funkcjonalnością pozwalającą na weryfikację wieku. Młodzież po ukończeniu 13. roku życia będzie miała do dyspozycji tę samą funkcjonalność w ramach konta mObywatel Junior.

To rozwiązanie zdecydowanie lepsze niż weryfikowanie wieku przez same platformy w obecnym trybie „skorumpowanego bramkarza”. Zdaniem Prezesa Urzędu Ochrony Danych Osobowych jest to też bezpieczne dla danych osobowych, bo opiera się na mechanizmie dowodu wiedzy zerowej (o którym piszemy niżej). Ci, którzy nie będą chcieli korzystać z EUDI Wallet (w Polsce zapewne będzie to po prostu nowa funkcja w mObywatelu), będą mogli sięgnąć po dowolny (komercyjny lub nie) produkt dostępny na rynku (o ile tylko będzie działał w oparciu o unijny standard).

Europejski portfel tożsamości cyfrowej. Czy weryfikacja wieku jest do pogodzenia z prywatnością?

Wyobraź sobie, że masz sekret. Ten sekret to twój wiek. mObywatel zna twój sekret, bo ma twój PESEL i wszystkie dane z dowodu osobistego. Kiedy jednak przychodzi do niego strona, na której próbujesz się zalogować i pyta: „Czy ta osoba ma 18 lat?”, jedyna odpowiedź, jaką dostanie, brzmi: „TAK” lub „NIE”. System nie zdradzi nic więcej – ani twojego imienia, ani daty urodzenia, ani tego, na ilu stronach 15+ się logujesz.

Taki mechanizm, czyli dowód z wiedzą zerową, to protokół stosowany na co dzień do zabezpieczania transakcji kryptowalut, w bezpiecznej komunikacji Internet of Things czy w bankowości (np. po to, żeby sprawdzić, czy twoja pensja kwalifikuje cię do kredytu hipotecznego, jednocześnie nie ujawniając jej wysokości).

W Unii Europejskiej obecnie trwają intensywne prace nad wdrożeniem europejskiego portfela cyfrowego. W swoim wystąpieniu na CCC organizacja Epic Centre wyjaśniła, jakie wymogi obowiązkowo mają spełniać lokalne portfele (w tej grupie: nieobserwowalność, niepowiązywalność, selektywne ujawnianie danych), a jakie pozostają do decyzji państwa. Wyjaśniła też, jak to przełożyć na język rozwiązań technicznych.

Nie wiemy jeszcze, jak dokładnie będzie działał polski protokół. Jesteśmy zaproszeni na spotkanie w tej sprawie do Ministerstwa Cyfryzacji i będziemy dążyć do tego, żeby proces przygotowania był otwarty, a rozwiązanie podlegało technicznej niezależnej ocenie.

„15+” jako… akcja edukacyjna?

Były minister cyfryzacji Janusz Cieszyński podczas debaty w Radiu Tok FM (24.03.2026) przyznał, że niewątpliwą zaletą zakazów prawnych (nawet jeśli nie są karnie przestrzegane przez społeczeństwo) jest ich psychologiczny efekt. Czy podniesienie wieku dojrzałości internetowej w Polsce sprawi, że rodzice zorientują się, że „media społecznościowe” to ani „media”, ani „społecznościowe”? Że miejsce, które mieli za przyjazny plac zabaw albo kino dla dzieci to w rzeczywistości klub dla dorosłych, z pornografią i przemocą, uzależniającymi interfejsami i manipulującymi algorytmami, przed którymi ich dziecko nie ma szans się samo obronić?

„Zakazem nie zastąpimy relacji” – mówiła posłanka Monika Rosa z Koalicji Obywatelskiej podczas tej samej debaty. Zakaz jednak może zmusić wiele osób do refleksji. Sama dyskusja, która już się wokół niego wytworzyła, może zmienić sporo w kwestii świadomości tego, czym naprawdę są i co robią nam (wszystkim, nie tylko najmłodszym) platformy (anty)społecznościowe.

Ta refleksja jest potrzebna nie tylko rodzicom, a również – a może przede wszystkim – polskim i europejskim decydentom.

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.