Martwisz się o zdrowie? Facebook nie pozwoli ci o tym zapomnieć

Artykuł
07.12.2023
13 min. czytania
Tekst
Image
Grafika do case study

Nie mów Facebookowi, jakich treści nie chcesz oglądać – to wiele nie zmieni. Badanie Fundacji Panoptykon „Algorytmy traumy 2” pokazało, że cyfrowy gigant walczy o uwagę użytkowników, wykorzystując wiedzę o ich lękach i słabościach, a przyciski, które mają ograniczać wyświetlanie niechcianych treści, nie działają.

W mediach społecznościowych każdego coś drażni. Jednych – reklamy zachęcające do odchudzania i zabiegów medycyny estetycznej, innych – polaryzacja dyskusji i hejt. Są też osoby przytłoczone ogromem toksycznych treści, które są im serwowane.

Scrollując feeda, mimowolnie zatrzymują wzrok na materiałach, które wzbudzają ich niepokój i pogłębiają lęki.

Oto historia jednej z takich osób.

Historia Joanny*

Joanna jest młodą matką. Zanim nią zostaje, niespodziewanie choruje i umiera bliska jej osoba. To wtedy Joanna zaczyna odczuwać silny niepokój o zdrowie i życie swoje i najbliższych. Po urodzeniu dziecka problem się nasila. Czy maluszek na pewno prawidłowo się rozwija? Co by się z nim stało, gdyby ona również zachorowała i zmarła? Lęk staje się jej zmorą: żyje w nieustannym stresie, odczuwa różne dolegliwości psychosomatyczne. Godzinami szuka w sieci informacji o dokuczających jej objawach, chodzi od lekarza do lekarza, robi kolejne (czasem inwazyjne) badania, przeznaczając na to coraz więcej czasu i pieniędzy.

Video file

O badaniu i historii Joanny posłuchacie w specjalnym odcinku podcastu Panoptykon 4.0.

Niepokój sprawia, że zaczyna szukać pomocy psychologicznej. Rozpoczyna terapię, na Facebooku dołącza do grup wsparcia dla osób zmagających się z chronicznym lękiem. Czuje jednak, że korzystanie z serwisu coraz bardziej ją przytłacza.

Co takiego Joanna ogląda na Facebooku?

Feed = treści organiczne + reklamy + treści rekomendowane

Każda osoba korzystająca z Facebooka widzi trzy grupy treści:

  • treści organiczne: posty osób, z którymi zawarła „znajomość” na Facebooku, stron, które obserwuje, i grup, do których się zapisała;
  • reklamy (posty sponsorowane): opłacone treści kierowane do wybranych przez reklamodawcę grup odbiorców;
  • treści z adnotacją „proponowane dla ciebie”: podsuwane przez platformę internetową materiały pochodzące od różnych stron, których osoba korzystająca nie obserwuje; Facebook rekomenduje je, bo uważa, że przyciągną one jej uwagę**.

O tym, które konkretnie treści wyświetlą się w feedzie, decydują algorytmy na podstawie cech i zainteresowań przypisanych danej osobie przez Facebooka. Użytkownicy i użytkowniczki nie mają możliwości samodzielnego określenia tematów postów, które ich interesują.

Image
Wykres: odsetek toksycznych postów proponowanych (średnia 7-dniowa)

Rys. 1. Niepożądane treści były wyraźnie widoczne w kategorii „proponowane dla ciebie".

Wmawiali jej, że to depresja…

„Wmawiali jej, że to depresja. 10 cm guz dał już przerzuty z jelit do wątroby”, „Zauważyła dziwne objawy na twarzy córki. Tak dawał o sobie znać rzadki nowotwór”, „Dwulatek zmarł po kąpieli w gorącym źródle. Groźna ameba zjadła chłopcu mózg”, „Trafiła do szpitala z bólem brzucha. Amputowali jej 3 kończyny”.

To tylko kilka wybranych nagłówków z zalewu toksycznych treści wyświetlających się Joannie w kategorii treści „proponowane dla ciebie”. Najwyraźniej na bazie aktywności kobiety w sieci (np. czytania o objawach chorób czy przynależności do grup wsparcia, gdzie rozmawia się na tematy związane ze zdrowiem) Facebook uznał, że jej uwagę przyciągną właśnie informacje o problemach zdrowotnych, zgonach i wypadkach. I zaczął je serwować regularnie.

Niestety, nie pomylił się! Joannie ciężko powstrzymać się przed kliknięciem w taki post, choć już wie, że czytanie tego rodzaju informacji tylko napędza jej lęk o zdrowie. Chciałaby się od nich odciąć.

Teoretycznie można wpłynąć na ograniczenie wyświetlania na Facebooku wybranych treści, np.:

  • przestać obserwować daną osobę lub stronę,
  • ukryć treści przez nią publikowane,
  • zmienić preferencje reklamowe,
  • wreszcie – w przypadku treści „proponowanych dla ciebie” wybrać opcję „Ukryj post. Wyświetlaj mniej postów podobnych do tego”.

Ale czy to wystarczy, żeby oczyścić feed z toksycznych treści? Czytaj dalej.

O badaniu Algorytmy Traumy 2

Badanie przeprowadziliśmy w okresie: czerwiec–lipiec 2023 r. We współpracy z Panoptykonem zrealizował je Piotr Sapieżyński z Uniwersytetu Northeastern w Bostonie, specjalista w zakresie badania platform internetowych i audytowania algorytmów.

Etapy badania:

  1. Scrollowanie. Przez ponad dwa tygodnie (7–22 czerwca 2023 r.) monitorowaliśmy feed Joanny podczas korzystania przez nią z Facebooka na telefonie (w przeglądarce). Pozwoliło nam to ustalić, jak często w kategorii „proponowane dla ciebie” wyświetlają się treści wskazywane przez nią jako toksyczne.
  2. Ukrywanie. Przez kolejne dni (23 czerwca – 2 lipca 2023 r.) badana klikała przycisk „Ukryj post – wyświetlaj mniej postów podobnych do tego” przy treściach, których nie chciała oglądać. Wykonała to działanie łącznie aż 122 razy.
  3. Monitorowanie feedu. Kolejne tygodnie (3–28 lipca) trwało monitorowanie feedu użytkowniczki podczas zwykłego używania Facebooka, bez ukrywania postów. Celem było sprawdzenie, czy wysłane w poprzednim etapie sygnały, że nie chce oglądać konkretnych treści, wpłynęły na zawartość feedu.

Toksyczny feed: jak nie reklama, to „proponowane” treści

Feedowi Joanny przyglądaliśmy się już w 2021 r. Analizowaliśmy wtedy wyświetlające się reklamy, które w dużej mierze stanowiły niepokojące komunikaty dotyczące zdrowia: np. informacje o zbiórkach na ciężko chore dzieci przeplatane ofertami badań w kierunku chorób genetycznych, na które te dzieci cierpiały. Naszym celem było wówczas sprawdzenie, czy narzędzia preferencji reklamowych Facebooka pozwalają skutecznie wpływać na treść wyświetlanych reklam.

W największym skrócie: nie pozwalają (szczegóły znajdziesz w tekście Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku).

Z czasem Joanna, obok niepokojących reklam, zaczęła w swoim feedzie obserwować coraz więcej treści „proponowanych dla ciebie” o podobnej, drażliwej dla niej tematyce. Dlatego w aktualnej, drugiej, części naszego studium przypadku przyjrzeliśmy się właśnie tej kategorii treści i sprawdziliśmy, czy oferowane przez Facebooka narzędzia pozwolą skutecznie wpłynąć na ich obecność w feedzie.

Image
Odsetek toksycznych postów z kategorii „proponowane dla ciebie”  Przed oznaczeniem niechcianych treści (1. etap badania) W obrębie kategorii: 53,7% W całym feedzie: 12,9%  Po oznaczeniu niechcianych treści (3. etap badania) W obrębie kategorii: 56,6% W całym feedzie: 13,8%

Rys. 2. Po tym, jak badana klikała opcję „ukryj post", odsetek niepożądanych treści tylko się zwiększył.

W ciągu niespełna dwóch miesięcy badania w feedzie użytkowniczki pojawiło się ponad 2500 postów „proponowanych dla ciebie” – co stanowiło 22% wszystkich wyświetlonych treści. Ponad 56% postów z analizowanej grupy (1416) dotyczyło tematyki wskazanej przez badaną jako toksyczna:

  • nagła śmierć młodych osób („Wrócili z wymarzonych wakacji. Zmarli w odstępie 4 godzin”; „Upadł na chodnik i zmarł. Nie żyje młody mężczyzna”);
  • pozornie niewinne objawy śmiertelnej choroby („Zauważyła zadrapanie na piersi. Tak zaczęła się walka o jej życie”, „29-latkę bolały plecy. To był objaw nieoperacyjnego raka płuc”);
  • alarmujące sygnały dotyczące zdrowia („Swędzą cię pachy? Jedna przyczyna jest wyjątkowo niebezpieczna”, „Ból, który może zwiastować tętniaka. Uważaj, to tykająca bomba”);
  • choroby i śmierć celebrytów („Znana piosenkarka jest nieuleczalnie chora. Kości zaczęły pękać na potęgę”, „Znany piłkarz zmarł na raka. Choroba błyskawicznie dała przerzuty”);
  • wypadki i śmierć małych dzieci („Nie żyje 4-miesięczne niemowlę. Przejmujące ustalenia”, „Tragedia rodzinna na wakacjach. 5-latka umierała na oczach rodziców”);
  • dramatyczne wypadki i morderstwa („Wzorowy uczeń wrocławskiego liceum zabił ojczyma siekierą. Zadał pięć ciosów”, „Płonęli żywcem przywiązani do szpitalnych łóżek. Koszmar w Częstochowie”);
  • makabryczne historie („Tragedia podczas koszenia trawy. Mężczyzna odciął sobie jądra”, „Wstrząsająca relacja… Zapłakana matka próbowała połączyć główkę dziecka z ciałem”).

Zdarzały się dni, kiedy tak wyglądało aż 8 na 10 postów z adnotacją „proponowane dla ciebie”. Ostatecznie niemal co ósmy post w całym newsfeedzie Joanny okazywał się toksyczną treścią z tej kategorii. To daje średnio 27 takich postów dziennie!

A to przecież nie jedyne podsuwane przez Facebooka treści, które napędzały lęk badanej. Użytkowniczce wciąż wyświetlały się reklamy, które uderzały w jej poczucie bezpieczeństwa.

Przycisk „ukryj post” nie poprawia zawartości feedu

W drugim etapie badania Joanna miała za zadanie oznaczyć posty, których nie chce oglądać. W ciągu tygodnia 122 razy kliknęła w przycisk „ukryj post / wyświetlaj mniej”. Wyobrażasz to sobie? To teraz wyobraź sobie frustrację osoby, która dochodzi do wniosku, że to nic nie dało.

Liczba wszystkich treści „proponowanych dla ciebie” nieznacznie zmalała w tygodniu, w którym badana klikała przycisk „ukryj post”. Jednak w tym czasie wzrósł odsetek toksycznych treści w ramach tej kategorii (występowały gęściej). Ogólna liczba proponowanych treści po kilku dniach wróciła do starego poziomu, a następnie dalej rosła, przekraczając stan z początku badania.

Ostatecznie odsetek proponowanych treści o toksycznej tematyce nie tylko nie zmalał, ale wręcz nieznacznie wzrósł (dotyczy to zarówno udziału w kategorii proponowanych treści, jak i w całym feedzie; zob. wykresy i tabelę).

Wniosek? Przyciski, których użycie powinno wpłynąć na zawartość feedu i uwolnić osobę od toksycznych treści, nie działają. Najwyraźniej korporacja uznaje, że bardziej opłaca się podsuwać Joannie angażujące ją – wbrew jej woli! – treści, które algorytm wybiera na bazie jej aktywności na Facebooku i na innych stronach w sieci, niż podążać za jej świadomie wyrażonymi preferencjami.

Dlaczego tak jest? Na to pytanie odpowiedź zna tylko firma Meta (właściciel Facebooka). Ale możemy się domyślać, że winien jest model biznesowy oparty na maksymalnym angażowaniu uwagi osób korzystających z platformy: mają scrollować i klikać – bez względu na to, czy tego chcą, czy nie. Bez względu na to, czy będzie to dla nich pożyteczne i satysfakcjonujące. A negatywne emocje często potrafią angażować silniej niż pozytywne.

 

Czy wyjście z Facebooka to jedyne wyjście?

Z Facebooka korzysta około 3 mld ludzi na świecie – ponad jedna trzecia ludzkości. W Polsce – ponad 26 mln osób. Używają go do różnych celów: kontaktowania się ze znajomymi, komentowania aktualnych zdarzeń, bycia na bieżąco w newsami z kraju i świata, czerpania informacji na temat działań szkoły czy uczelni, uczestniczenia w życiu kulturalnym, współpracy, wymiany informacji, transakcji handlowych, pracy, prowadzenia biznesu. Zwracamy na to uwagę, by uciąć ewentualne dywagacje, że dla dobra swojego zdrowia psychicznego Joanna powinna po prostu przestać korzystać z Facebooka.

Czy w tej sytuacji jedyne wyjście to pogodzić się z toksyczną zawartością feedu?

Z jednej strony Facebook daje Joannie dostęp do grup wsparcia dla osób borykających się z podobnym problemem, z drugiej – podsuwa destrukcyjne posty. To tak, jakby osobę uzależnioną od alkoholu na spotkaniach grupy AA częstowano lampką wina.

Joanna nie jest jedyną osobą, której słabości czy wrażliwość wykorzystuje algorytm. Część użytkowniczek i użytkowników może nawet nie zdawać sobie z tego sprawy. Dlatego tak potrzebne są systemowe rozwiązania.

*Imię bohaterki zostało zmienione.

** Z naszych obserwacji wynika, że ten rodzaj treści u osób korzystających z Facebooka pojawia się w różnym natężeniu. Na przykład u niektórych wyświetla się sporadycznie (na co dzień nie występuje, ale czasem nagle się pojawia), u innych zaś występuje stale, by zniknąć na dzień/dwa, a następnie wrócić z poprzednią regularnością. Nie wiemy, od czego to zależy: Facebook tego nie wyjaśnia.

Niedziałające narzędzia kontroli newsfeedu

To nie jedyne badanie, które podważa działanie narzędzi kontroli, które VLOP-y oferują użytkownikom i użytkowniczkom, mówiąc „masz wpływ na swój feed”. Zwłaszcza Facebook daje wiele różnych opcji wyrażenia sprzeciwu (lub zadowolenia), tyle że okazują się one jedynie atrapami.


  • Przeprowadzone przez Fundację Panoptykon badanie wskazuje, że wbrew deklaracjom Facebooka zmiana preferencji reklamowych nie pozwala na trwałe ograniczenie wyświetlania reklam związanych z zainteresowaniami przypisanymi użytkowniczce: w miejsce usuniętych zainteresowań platforma przypisuje inne, podobne, i do nich dopasowuje wyświetlane reklamy.
    Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku, Fundacja Panoptykon i Piotr Sapieżyński, 2021

  • Badanie Fundacji Mozilla prowadzi do wniosku, że użytkownicy i użytkowniczki nie mają wpływu na to, jakie rekomendacje wyświetla im YouTube, a korzystanie z narzędzi feedbacku oferowanych przez platformę jest zwyczajnie frustrujące.
    Does this button work? Investigating YouTube’s ineffective user controls, Mozilla Foundation, 2022

  • Raport zespołu Ashlee Milton z University of Minnesota Twin Cities pokazuje, że według wielu badanych użytkowników i użytkowniczek TikToka przyciski umożliwiające zgłoszenie sprzeciwu wobec konkretnych treści na tej platformie nie mają realnego wpływu na feed (czyli na treści wyświetlane na kanale „Dla ciebie”).
    „I See Me Here”, Mental Health Content, Community, and Algorithmic Curation on TikTok, Ashlee Milton i in., 2023


Dorota Głowacka, Piotr Sapieżyński, Małgorzata Szumańska
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.