15+ dla platform (anty)społecznościowych? Trzeba to przegadać!

Artykuł
16.02.2026
13 min. czytania
Tekst
Image
Dziecko podświetlone światłem laptopa

Internet już wie, że nie jesteś psem

W Internecie „bileciki do kontroli” pokazujemy od dawna – i to niekoniecznie klikając przycisk „mam 18 lat” czy logując się na swoje konto. Zalogowani czy nie, zostawiamy po sobie tak gęsty cyfrowy ślad utkany z danych behawioralnych, że oszacowanie naszego wieku nie stanowi dla platform wielkiego wyzwania. Algorytmy AI radzą sobie z dużo trudniejszymi zadaniami: potrafią przewidywać nasze poglądy polityczne, określić stan zdrowia, wyznanie czy sytuację majątkową. W kultowym memie „w Internecie nikt nie wie, że jesteś psem” od dawna nie ma nawet ziarnka prawdy.

Panoptykon jako pierwszy w Polsce mówił o zagrożeniach, jakie niesie rosnąca władza algorytmów oraz model biznesowy platform internetowych. Zredukowani do gałek ocznych konsumujących kolejne reklamy, z mózgami rozregulowanymi dopaminą przez UX-owych ninja, tracimy podmiotowość – niezależnie od tego, czy mamy 13, czy 50 lat. TikTok i Instagram to nieuczciwe kasyna, które żerują na naszej uwadze. Dzisiaj tę mantrę powtarzają politycy i polityczki na komisjach sejmowych, aktywiści i aktywistki na konferencjach, badaczki i badacze na seminariach naukowych.

Media społecznościowe (…) są niebezpieczne [dla dzieci] nie tylko dlatego, że są tam niebezpieczne osoby. Są niebezpieczne dlatego, że są projektowane, zarządzane przez niebezpieczne osoby. Albo dlatego, że są projektowane, zarządzane w taki sposób, że są niebezpiecznie dla dzieci.

 

Łukasz Wojtasik, 10.02.2026 r., gala Dnia Bezpiecznego Internetu

Media (anty)społecznościowe od 15 roku życia

W kampanii „15 powodów” Fundacja Dajemy Dzieciom Siłę odmalowuje ponury obraz krzywd, jakich doznają dzieci – głównie w mediach (anty)społecznościowych. Adresatami kampanii są rodzice oraz politycy i polityczki. Rodzicom Fundacja proponuje wprowadzenie domowej zasady: „Do 15 roku życia bez mediów społecznościowych”. Do władz apeluje o podniesienie wieku, od którego dostępne są platformy (anty)społecznościowe i inne usługi oparte na podobnych mechanizmach, a także o skuteczną weryfikację wieku użytkowników i użytkowniczek.

Te postulaty nie powinny budzić zdziwienia. Przez lata żyliśmy w absurdalnej rzeczywistości, w której cyfrowe korporacje nie tylko miały nieograniczoną władzę, lecz także były sędziami we własnych sprawach. Rezultat?

  • 7 na 10 nastolatków zetknęło się w ciągu ostatnich 12 miesięcy z materiałami przemocowymi w mediach społecznościowych. Tylko 6% aktywnie je wyszukiwała (Fundacja Dajemy Dzieciom Siłę, Kampania 15+ powodów).
  • Ponad 50% nastolatków w Polsce miała kontakt z pornografią online. Średnio pierwszy kontakt z takimi materiałami przypada na 11 rok życia. 6 na 10 osób, które zetknęło się z pornografią online, trafiło na nią za pomocą mediów społecznościowych (Fundacja Dajemy Dzieciom Siłę, Kampania 15+ powodów).
  • 87% rodziców deklaruje, że potrzebuje wsparcia w zakresie zapewniania dzieciom bezpieczeństwa online (More in Common Polska, Od bezsilności do mobilizacji. Polscy rodzice wobec bezpieczeństwa dzieci w sieci, 2025).
  • W Polsce do portali społecznościowych ma dostęp 1,4 mln dzieci poniżej 13 roku życia (Instytut Cyfrowego Obywatelstwa, Internet Dzieci, 2025).

To tylko garstka danych dotyczących kondycji polskich dzieci i ich rodziców w zderzeniu z komercyjnym Internetem. Kolejni sygnaliści, przesłuchania przed amerykańskim Kongresem, procesy sądowe czy nagłaśniane w mediach rodzinne tragedie dostarczają kolejnych dowodów na to, jak toksycznym środowiskiem dla najmłodszych potrafią być platformy (anty)społecznościowe.
Mózg osoby po 25. roku życia jest już w pełni ukształtowany, a jej rozwój emocjonalny i społeczny znajduje się na etapie, który pozwala lepiej przetwarzać trudne bodźce płynące z otoczenia. Mimo to dorośli nadal dysponują ograniczonym – kształtowanym przez tysiące lat ewolucji – „oprogramowaniem”, np. skłonnością do ciągłego skanowania otoczenia w poszukiwaniu zagrożenia (wrażliwość na negatywne komunikaty) czy do poszukiwania przyjemności (reakcja na wyrzuty dopaminy aktywowane np. przy sprawdzaniu powiadomień z aplikacji).

Choć o uzależnieniach behawioralnych dzieci od telefonów mówi się najczęściej i najgłośniej, dorośli również doświadczają FOMO. Ich nastrój bywa obniżony, gdy przeglądają zdjęcia znajomych z wakacji, a sen cierpi, gdy budzą się i zasypiają z telefonem w ręku. Doświadczając trudnych emocji – podobnie jak dzieci – mają tendencję do odwracania od nich uwagi, np. poprzez sięgnięcie po telefon. Dlatego rozmowa o podniesieniu wieku dostępu do konkretnych usług czy aplikacji nie może wypierać dyskusji o szkodliwości platform (anty)społecznościowych jako takich.

Dzieci (i dorośli) pod parasolem DSA

Platformy nie zamieniły się w kasyna uwagi wczoraj. Problem został dostrzeżony niemal dekadę temu, a około 5 lat temu trafił wysoko na agendę polityczną. Wtedy to Unia Europejska podjęła decyzję o twardym uregulowaniu działalności wielkich platform. Wkrótce potem państwa na innych kontynentach – m.in. Malezja, Brazylia i Australia – również poszły w tym kierunku. 

Zgodnie z aktem o usługach cyfrowych (Digital Services Act – DSA) platformy nie mogą:

  • kierować targetowanych reklam do dzieci, czyli nie mogą również profilować dzieci w celach reklamowych;
  • projektować swoich usług w sposób manipulacyjny – np. tak, by sprzyjały uzależnieniu. Przykładami tego typu funkcjonalności są m.in. niekończący się feed, automatyczne odtwarzanie kolejnych filmików czy domyślnie włączone powiadomienia w aplikacji (wymóg domyślnie wyłączonych powiadomień platformy powinny spełniać również w przypadku pełnoletnich użytkowników i użytkowniczek).

Powinny natomiast:

  • dbać o prywatność i bezpieczeństwo dzieci, co w praktyce powinno oznaczać domyślne ustawienia zapewniające maksymalna ochronę – inną niż dla dorosłych użytkowników i użytkowniczek;
  • aktywnie przeciwdziałać ryzykom dotyczącym praw dzieci, ich dobrostanu i zdrowia (fizycznego i psychicznego). W praktyce platformy powinny skutecznie ograniczać ekspozycję dzieci na szkodliwe treści, przeciwdziałać ich wpadaniu w „królicze nory” (ciągi powtarzalnych tematycznie materiałów) i kompulsywnemu, nadmiernemu korzystaniu z serwisów społecznościowych (szereg pomysłów na to, jak zmodyfikować systemy rekomendacyjne i jakie bezpieczniki wprowadzić, znajdziecie w naszych materiałach, np. w Safe by Default. Brief Fundacji Panoptykon i People vs BigTech);
  • przestrzegać własnych regulaminów, co w praktyce powinno się przekładać m.in. na rzetelną weryfikację wieku, skuteczną moderację treści, a w przypadku młodszych użytkowników – na ograniczenie katalogu treści, jakie trafiają do systemów rekomendacyjnych.

Złożona odpowiedź na złożony problem

Realna poprawa bezpieczeństwa dzieci (i dorosłych) na platformach nastąpi wtedy, gdy egzekwowane będą zakazy i obowiązki wynikające z już istniejącego prawa. Na szczęście każda kolejna decyzja Komisji Europejskiej pokazuje, że zbliżamy się do źródła problemów.

  • Platforma X Elona Muska została ukarana m.in. za wprowadzający w błąd znaczek zweryfikowanego konta (można go było po prostu kupić, bez jakiejkolwiek dodatkowej weryfikacji ze strony platformy). W rezultacie ułatwiało to podszywanie się pod innych użytkowników i użytkowniczki i promowanie oszustw internetowych.
  • Najnowsza kara nałożona na TikToka dotyczy samego serca platformy, czyli algorytmów rekomendacyjnych. Komisja wskazała na ich uzależniający charakter i nakazała ich przeprojektowanie.

Równolegle do prowadzonej w poszczególnych krajach Europy dyskusji w Brukseli toczy się proces, który może doprowadzić do podniesienia wieku dojrzałości cyfrowej we wszystkich krajach Unii. We wrześniu 2025 r. Ursula von der Leyen powołała panel ekspercki, który ma przedstawić rekomendacje w tej sprawie. W jego składzie znalazł się również Polak: dr Piotr Toczyński, socjolog i psycholog. Dynamika dyskusji w wielu krajach unijnych wskazuje jednak, że zanim członkowie panelu wypracują konsensus, doczekamy się najprawdopodobniej narodowych bramek. Czy okażą się skuteczne? 

W Polsce 50% dzieci w klasach 1–3 szkoły podstawowej korzysta samodzielnie z TikToka czy Instagrama. 

 

Fundacja Dajemy Dzieciom Siłę, Diagnoza. Sprawdzian 13+, 2024 r.

To zależy od tego, kogo rządy obsadzą w roli kontrolera. Jedno jest pewne: pozostawienie weryfikacji wieku w rękach platform (idąc za przykładem Australii) niewiele zmieni. To oczywiste, że prywatny ochroniarz będzie, jak dotąd, działał w interesie właściciela kasyna. Zastąpienie go policjantem ślepym na prawa człowieka lub zwyczajnym szpiegiem (czyli rozwiązaniem wbudowanym wprost w urządzenie w naszej kieszeni) jest równie ryzykowne.

Komercyjne aplikacje do weryfikacji wieku nie zawsze spełniają standardy ochrony prywatności. Według ostatnich doniesień aplikacja Yoti pozwalała na identyfikację urządzenia na podstawie unikalnego zestawu cech (device fingerprinting) oraz udostępniała reklamowe ID użytkowników innym podmiotom.

 

Mint Secure GmbH, Data protection and IT security issues with age verification app Yoti

Kontroler godny zaufania

Nowy mechanizm weryfikacji musi być odrębny względem platform, a jednocześnie podlegać niezależnej kontroli i budzić społeczne zaufanie. Dlatego kluczowe znaczenie będzie mieć to, jaki standard techniczny wybierze UE, a za nią Polska.

Czeka nas dyskusja podobna do tej, która toczyła się podczas epidemii koronawirusa. Wtedy kompromisem, który zadowolił państwa (sanepidy), firmy technologiczne oraz obrońców praw człowieka, w tym organizacje takie jak Panoptykon, był protokół o nazwie Exposure Notification, stworzony wspólnie przez Apple i Google – zgodny z filozofią RODO (czyli z zasadami takimi jak minimalizowanie zbieranych danych czy privacy by design). W grudniu 2022 r. UE przyjęła dość rygorystyczne wspólne podejście do projektowania aplikacji śledzących kontakty społeczne.

Tamte gorące dyskusje i społeczny opór przed rozwiązaniami wprowadzanymi w pośpiechu przez rządy przyniosły ważne lekcje. Dziś Unia Europejska pracuje nad wspólnym standardem weryfikacji tożsamości, czyli europejską tożsamością cyfrową (eID UE). System, który ma pozwolić na transgraniczne, bezpieczne potwierdzanie tożsamości w całej Unii, jest już na finiszu. Istnieją też już pierwsze analizy naukowe na temat rozwiązań funkcjonujących w Belgii, Niemczech, Estonii i Niderlandach (zob. Daniel Ostkamp, Erik Poll Comparing privacy properties and technical measures of eID systems, Radboud University). Narzędzia do weryfikacji wieku były pierwszymi, które były testowane w ramach eID. Jak donosiła Polska Agencja Prasowa, Polski nie było wśród pierwszych testerów.

mObywatel sprawdzi twój wiek

W Polsce nad rozwiązaniem do weryfikacji wieku pracuje Ministerstwo Cyfryzacji. Zgodnie z zapowiedziami – m.in. wiceministra Dariusza Standerskiego – odpowiedni moduł ma zostać dodany do mObywatela w grudniu tego roku.

Polskie rozwiązanie ma być zgodne z unijnym standardem, a ten – przynajmniej na papierze – wydaje się wodoszczelny. Ma zapewniać anonimowość, uniemożliwić połączenie aktywności z konkretną osobą oraz wykorzystywać kryptograficzne standardy (dowód z wiedzą zerową) etc. O spełnienie podobnych wymagań walczyliśmy w czasie pandemii w odniesieniu do rządowych aplikacji takich jak ProteGo Safe czy Kwarantanna Domowa (listę wymogów znajdziesz w tekście Panoptykonu Technologia w walce z koronawirusem – 7 filarów zaufania).

Wiemy jednak, że papier przyjmie wszystko. A rolą Panoptykonu jest patrzenie państwu na ręce w procesie wdrażania nowych rozwiązań. Dlatego gdy tylko usłyszeliśmy o inicjatywie poselskiej Giertych–Nowacka–Rosa, zwróciliśmy się do Ministerstwa Cyfryzacji z postulatem powołania panelu eksperckiego albo grupy roboczej do spraw weryfikacji wieku. Chcemy, żeby zamiast przerzucać się domysłami w mediach społecznościowych, kompetentni ludzie usiedli w jednym pokoju i porozmawiali o technicznym aspekcie proponowanego rozwiązania. Jeżeli okaże się, że deklaracje Unii są puste, a polskie rozwiązanie oznacza realne zagrożenie dla naszej wolności i prywatności, pierwsi będziemy je krytykować – dokładnie tak, jak robiliśmy to do tej pory.

Czy 15+ wystarczy, by ochronić dzieci w sieci

Załóżmy, że ustawa podnosząca do 15 lat wiek wstępu na media społecznościowe i podobne platformy przechodzi w parlamencie i zostaje podpisana przez Prezydenta RP, a narzędzie do weryfikacji wieku spełnia wymienione wyżej standardy. Czy 15+ rozwiąże problem dostępu dzieci do TikToka? Zapewne nie – skoro badania pokazują, że co piąty rodzic doskonale wie, że jego dziecko podało nieprawdziwą datę urodzenia, by wejść w świat platform (anty)społecznościowych (dane za raportem: Bez tabu: o czym nie rozmawiamy w domach, Fundacja Sex.ed). Dlatego uważamy, że równocześnie trzeba reformować środowisko cyfrowe w kierunku safe by design i zmieniać postawy społeczne.

Taka zmiana wymaga czasu i systemowego działania. Krytyczne podejście do usług, które nie są projektowane z myślą o konsumentach (tylko o reklamodawcach), i pozytywne wzorce (nie)korzystania z social mediów muszą się pojawić w szkołach, mediach głównego nurtu i popularnych serialach. Dzieci, którym zabierzemy platformy (anty)społecznościowe, powinny dostać wsparcie. Takie samo wsparcie powinni dostać rodzice, którzy będą musieli na nowo się nauczyć, jak radzić sobie z emocjami dzieci odłączonych od telefonów.

Panoptykon to rozumie, w związku z czym zainicjowaliśmy współpracę szerokiej koalicji organizacji społecznych z Ministerstwem Edukacji Narodowej. W tym roku włączamy się też w duże kampanie społeczne jako partner, by mieć wpływ na ich merytoryczną warstwę.

„A więc nawet wy chcecie bramek do Internetu?!”

Pamiętamy jeszcze Internet sprzed etapu zawłaszczenia przez wielkie firmy technologiczne. Fora, na których tworzyły się społeczności. Otwarte protokoły i interoperacyjność. Dostęp do wiedzy, bez lawiny AI slopu… To, co kiedyś było normą, teraz stanowi pojedyncze reduty oporu. Ogromna większość użytkowników nie wie nawet, że one istnieją. Dlatego nasza walka wymierzona jest w największe platformy.

Wierzymy w to, że wolny, otwarty i oddolnie zarządzany Internet odrodzi się na zgliszczach dominujących, zamkniętych platform typu Facebook, TikTok czy Instagram. Zasłużyły na marny koniec! To ich wolna amerykanka (sposób na ciągły wzrost dochodów wyrażony w sloganie move fast, break things) doprowadziła do kryzysu, na który politycy pilne potrzebują dziś odpowiedzi. Wydaje się przesądzone, że jedną z nich będzie obowiązkowa weryfikacja wieku. Ale celem tej polityki nie są przecież niszowe media, undergroundowe fora czy platformy typu Wikipedia. Obowiązek stawiania bramek ma dotyczyć dostawców popularnych usług (komunikatorów, platform z krótkimi filmikami wideo, sieciowych gier). Usługi te są de facto kierowane do dzieci i tworzą realne ryzyka, z którymi firmy nic nie robią.

Pozostaje kwestia, czy „bileciki” potwierdzające wiek będzie trzeba okazywać również na stronach mediów i alternatywnych platform, pozostaje otwarta. W Panoptykonie uważamy, że byłby to zły kierunek. Ale gdzie dokładnie powinna przebiegać ta granica? To kolejny punkt, o którym jako społeczeństwo będziemy musieli jeszcze szczerze porozmawiać.

Pytania? Przemyślenia? Napisz do nas na fundacja@panoptykon.org.

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.