Artykuł 10.04.2026 8 min. czytania Tekst Image W Stanach Zjednoczonych zapadł głośny wyrok po procesie, w którym na celowniku znalazły się platformy należące do Mety i Google’a. Został okrzyknięty przełomowym, bo w końcu zamiast zrzucać odpowiedzialność na użytkowników i użytkowniczki naświetlił problem tego, w jaki sposób firmy technologiczne projektują swoje usługi. Czy to oznacza, że w kwestii rozliczania platform (anty)społecznościowych powinniśmy inspirować się USA? Sprawdzamy, jaki przykład z amerykańskiego podwórka płynie do Europy.W końcu winne platformy, a nie użytkownicy i użytkowniczkiPod koniec marca sąd w Los Angeles uznał, że Meta i YouTube są winne „zaniedbań przy projektowaniu” swoich usług, które to zaniedbania w „istotny sposób” przyczyniły się do krzywdy, jakiej doznała powódka, oraz tego, że nie informowały swoich użytkowników o zagrożeniach płynących z korzystania z tak niebezpiecznie zaprojektowanych usług. Pozew złożyła 20-letnia dziewczyna, przedstawiana jako Kaley, twierdząc, że wieloletnie, kompulsywne korzystanie z YouTube’a (od 6. roku życia) i Instagrama (od 11. roku życia) doprowadziło u niej m.in. do depresji, stanów lękowych i myśli samobójczych. Kaley wygrała proces, a pozwane firmy muszą jej wypłacić (łącznie) 6 mln dolarów odszkodowania.To pierwsza sprawa sądowa, która nie koncentruje się na szkodliwych treściach, ale na niebezpiecznych mechanizmach zaprojektowanych przez same platformy. Ten fakt cieszy nas najbardziej, bo w końcu rozmawiamy o samym sednie tematu. Po tym wyroku (który z pewnością nie będzie ostatnim) firmom technologicznym coraz trudniej będzie podtrzymywać narrację, w której cała odpowiedzialność za „zło Internetu” spada na użytkowniczki i użytkowników, którzy rzekomo sami sobie szkodzą, skoro godzinami scrollują treści pełne przemocy, dezinformacji czy hejtu.Ta opowieść była snuta latami. Przebija się ona również w składanych przez platformy publicznych raportach (to obowiązek wynikający z aktu o usługach cyfrowych): nawet te firmy które przyznają, że „źle zaprojektowany” interfejs lub algorytm mogą sprzyjać uzależnieniom behawioralnym u dzieci, są dalekie od wzięcia odpowiedzialności za ten problem na swoim podwórku.W swoich raportach chwalą się programami edukacyjnymi i funkcjonalnościami typu automatycznie wyskakujące powiadomienie „czas spać” i „czas na przerwę”. Nie dotykają jednak źródła problemu: algorytmów i interfejsów, które nadal są projektowane tak, by maksymalnie angażować.Nie od dziś wiadomo, że wiele funkcji aplikacji bazuje na mechanizmach znanych z gier hazardowych – aktywując ośrodki nagrody w naszych mózgach, powodują nieregularne uwalnianie dopaminy. Powiadomienie raz może oznaczać komentarz od kogoś ważnego, a innym razem coś zupełnie dla nas nieistotnego. Ale dokładnie jak przy jednorękim bandycie nadzieja na wygraną będzie nas trzymać przy maszynie przez wiele godzin.Korzystanie z platform (anty)społecznościowych prowadzi też do zaburzeń snu i koncentracji, a w skrajnych przypadkach do zmian w budowie mózgu, podobnych do tych obserwowanych u osób uzależnionych od narkotyków.Według najnowszych badań Reset Tech, opracowanych we współpracy z YouGov, najskuteczniej wciągają algorytmy TikToka, Instagrama oraz YouTube’a – odpowiednio 75%, 69% i 68% młodych użytkowników i użytkowniczek przyznaje, że spędza na nich więcej czasu, niż zamierzało. Ponad 80% osób wskazuje, że najbardziej wciągające są niekończące się strumienie treści i hiper-spersonalizowany feed.Z tych samych badań wynika, że przerzucanie odpowiedzialności za to, jak ankietowani korzystają z platform, na nich samych, to pomysł równie karkołomny, co sprzedawanie piwa albo marihuany w sklepiku szkolnym i zachęcanie do „korzystania z umiarem”. Tym bardziej, że większość nastolatków nie korzysta z funkcji zarządzania czasem, jakie oferują platformy, bo zwyczajnie nie ma pojęcia o ich istnieniu (np. 41% ankietowanych nastolatków nie wiedziało o tym, że są takie rozwiązania na YouTube) [1].Czy dziwi was, że te funkcje nie są szczególnie popularne? Nas również nie. Przecież sam Mark Zuckerberg kilka lat temu powiedział, że „czas spędzany przez nastolatków powinien być naszym głównym celem na 2017 rok”. W wewnętrznych dokumentach firmy z 2024 roku również można przeczytać, że „pozyskanie nowych nastoletnich użytkowników ma kluczowe znaczenie dla sukcesu Instagrama”*. Tak długo, jak żerowanie na uwadze dorosłych i dzieci będzie się platformom opłacało, nie mamy co liczyć na ich wyrzuty sumienia i realne postanowienia poprawy. * Rzecznik Mety oświadczył, że czas spędzany na platformach firmy nie stanowi obecnie celu firmy.Pozwy w USA – w Europie: DSAPodobnych spraw jak ta dotycząca Kaley jest więcej. W Stanach Zjednoczonych na rozstrzygnięcie czeka obecnie około 10 tysięcy indywidualnych pozwów, 800 spraw wniesionych przez okręgi szkolne oraz 40 pozwów złożonych przez prokuratorów stanowych – we wszystkich chodzi o szkody spowodowane przez platformy (anty)społecznościowe.Z tego powodu sprawa Kaley bywa porównywana do tzw. tobacco moment z lat 90., kiedy papierosy zostały oficjalnie uznane za produkty szkodliwe dla zdrowia. Po fali procesów, w których koncerny musiały wypłacić odszkodowania, doszło do zmian w prawie: zakazano reklam papierosów kierowanych do dzieci, a potem przyszły kolejne ograniczenia, również dla dorosłych.Jednak czy procesy to jedyny sposób na walkę z platformami i ochronę najmłodszych?W realiach amerykańskich – zarówno prawnych, jak i politycznych – pozwy rzeczywiście mogą być jednym z nielicznych narzędzi wywierania presji na big techy. Od lat 90. Kongres nie przyjął kompleksowych regulacji dotyczących największych platform. W ostatnich latach pojawiły się nawet działania zmierzające w przeciwnym kierunku. Donald Trump powstrzymał wprowadzenie jakiejkolwiek regulacji AI, która mogłaby opóźnić jej rozwój. Nic dziwnego, że amerykańscy rodzice poszli walczyć z big techami w sądach.W Unii Europejskiej sytuacja wygląda inaczej. Nie trzeba pozywać big techów, by wymusić zmianę ich działania. Od kilku lat mamy akt o usługach cyfrowych (DSA) i instytucje odpowiedzialne za egzekwowanie tych przepisów, z Komisją Europejską na czele. DSA wyrosło z przekonania o szkodliwości modelu biznesowego platform internetowych – takich, jakie dziś znamy – na poziomie indywidualnym (m.in. ze względu na szkody dla zdrowia psychicznego) i społecznym (m.in. ze względu na podsycanie polaryzacji, teorii spiskowych i dezinformacji). W Europie jesteśmy więc o dekadę do przodu w myśleniu o tych zagrożeniach i dysponujemy narzędziami, by wymuszać na platformach zmiany w ich modelu działania – od kar finansowych po, w skrajnych przypadkach, tymczasowy zakaz świadczenia usług na europejskim rynku.Decyzje Komisji Europejskiej nie są tak spektakularne jak teatralny proces sądowy w USA, z udziałem ławy przysięgłych, zeznaniami samego Zuckerberga i wyciekami wewnętrznych maili Mety. Media skupiają się na dokonaniach amerykańskich, pomijając milczeniem to, że Komisja Europejska wydała już 11 decyzji punktujących łamanie DSA przez wielkie platformy. Ostatnia, dotykająca TikToka, dotyczy właśnie uzależniających funkcjonalności na tej platformie (takich jak autoodtwarzanie wideo) i nakazuje ich zmianę. Mamy więc w UE prawo, z którego możemy korzystać bez wchodzenia na trudne ścieżki sądowe i czekania latami na wyroki sądów. Z tego prawa pośrednio korzystamy również w Polsce. Mimo że styczniowe weto prezydenta Karola Nawrockiego zablokowało na kolejne miesiące wdrożenie DSA, a tym samym możliwość składania skarg na platformy do naszego UKE (w roli koordynatora ds. usług cyfrowych), to nie zahamowało Komisji Europejskiej w podejmowanych przez nią postępowaniach. Zmiany, jakie powoli, ale pewnie Komisja wymusza na platformach, odczujemy w całej Unii Europejskiej. Więcej o tym przeczytasz w przewodniku: „Jak DSA chroni cię w sieci”Dlatego zanim z zazdrością lub podziwem spojrzymy na czyjeś podwórko, warto rzucić okiem na własną trawę, żeby się przekonać, że tym razem po tej stronie płotu wyrosła bardziej zielona. Katarzyna Szymielewicz Autorka Patrycja Roman Autorka [1] Reset Tech x YouGov: Stuck Sleepless in the App: How Platforms Designed for Extended Use Impact Minors Temat nowy cyfrowy ład media społecznościowe Odpowiedzialność pośredników za treści w Internecie Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Premiera filmu i dyskusja. Czy big tech jest odpowiedzialny za hejt w sieci? (5.09.2025 r., Warszawa) Zapraszamy na premierę krótkometrażowego filmu dokumentalnego Amnesty International Polska w Kinie Muranów (Warszawa). Po pokazie zaplanowano debatę pt. Czy big tech jest odpowiedzialny za hejt w sieci?Kiedy: 5 września 2025 r. (piątek), godz. 18:00–20:00 26.08.2025 Tekst Artykuł Dość żerowania na użytkownikach. List otwarty 50 organizacji w sprawie cybergigantów Lista szkodliwych skutków ubocznych tego, jak dominujące platformy internetowe kształtują nasz obraz świata, jest długa. Żerowanie na słabościach użytkowników, negatywny wpływ na poczucie własnej wartości, dyskryminacja, manipulacja, promowanie toksycznych treści i intensyfikacja radykalizacji – to… 22.09.2021 Tekst Artykuł Jak ograniczyć najbardziej uzależniające funkcje aplikacji i mediów społecznościowych? Zmagają się z tym zarówno dzieci, jak i dorośli. Winne są algorytmy odpowiadające za polecane treści i za nieustanne powiadomienia, którym coraz trudniej się oprzeć. Jak samemu nie dać się im wciągnąć, a także pomóc dzieciom uniknąć zupełnego braku kontroli? Nie zawsze musi to oznaczać konieczność… 13.02.2018 Tekst