Jak platformy mieszają w demokracji algorytmami rekomendującymi treści

Artykuł
17.05.2024
8 min. czytania
Tekst
Image
Ludzie poruszający się w różnych kierunkach

Sensacyjne nagłówki klikają się lepiej niż wyważone polemiki. To sprawia, że są też bardziej widoczne na platformach społecznościowych takich jak Facebook, bo ich algorytmy premiują „angażujące” treści. W czasie kampanii wyborczej ten wyścig po uwagę może mieć poważne konsekwencje.

„Będziemy jeść robaki zamiast mięsa”. „Zielony ład zrujnuje rolników” (zrujnowanych już przez import ukraińskiego zboża). „Imigranci zabierają Polakom socjal”. Do tego dodajmy korki od butelek i „dziwne okoliczności” ostatnich pożarów. Czy to jest właśnie dezinformacja? Każdy z tych komunikatów wychodzi od faktu, ale kluczowy w nim jest emocjonalny – nacjonalistyczny, antyunijny, ksenofobiczny (zaznacz właściwe) – akcent, który napędza ruch w social mediach.

Jak rozchodzi się manipulacja na portalach społecznościowych

Zdaniem badaczy i badaczek szerokiemu rozchodzeniu się w sieci sensacyjnych treści sprzyja działanie algorytmów rekomendacyjnych wielkich platform (Very Large Online Platforms, czyli VLOP-ów). Celem jest angażowanie uwagi, bo ta przekłada się na przychody z reklam. Uwagę przyciągają przede wszystkim treści sensacyjne czy wzbudzające strach, algorytmy premiują więc tego rodzaju komunikaty, niżej spychając te bardziej wyważone. Proces ten odbywa się w oparciu o analizę zachowania użytkowniczek i użytkowników (tego, w jaki sposób konkretna osoba reaguje na konkretne treści), którą określa się profilowaniem behawioralnym.

Kto na tym korzysta? Na pewno nie osoby mające konta na portalach społecznościowe. Według najnowszej ankiety YouGov*, przeprowadzonej w trzech krajach (Francji, Niemczech i Irlandii) na grupie ponad 4 000 osób, 54% użytkowniczek i użytkowników social mediów uważa, że platformy społecznościowe nie robią wystarczająco dużo, żeby ograniczać wyświetlanie szkodliwych treści.

* Ankieta jest jednym z elementów kampanii FEED Fix, w ramach której aktywiści przekonują Komisję Europejską do podjęcia działań w celu ochrony niezależności wyborów do Parlamentu Europejskiego.

Image
Czekolada rozdawana po KE

16 maja pod Komisją Europejską koalicja People vs Big Tech rozdawała darmową czekoladę i informację o jej PRAWDZIWYM składzie. W ten sposób chcieliśmy zwrócić uwagę na to, że platformy internetowe też są darmowe, a prawdziwy koszt jest nieoczywisty.

Antyunijny i nacjonalistyczny przekaz to niebezpieczne paliwo dla trwającej właśnie kampanii przed wyborami do Parlamentu Europejskiego. Jednocześnie jest to przekaz kuszący, bo ślizganie się na fali sensacji i wykorzystywanie polaryzacji gwarantuje zasięgi. Politycy biorą udział w tym wyścigu, bo widoczność w Internecie przekłada się na ich pozycję w sondażach. A mocna pozycja w sondażach przyciąga kolejnych wyborców. I tak dalej…

W ten sposób, premiując w swoich systemach rekomendacyjnych najbardziej angażujące treści, platformy internetowe mieszają w europejskiej demokracji.

Jak Unia Europejska walczy z polaryzującymi algorytmami

To zagrożenie dostrzegła Unia Europejska. I odpowiedziała na nie w 2022 r., wprowadzając w akcie o usługach cyfrowych (Digital Services Act, DSA) konkretne obowiązki i standardy dla VLOP-ów. Między innymi platformy powinny przeprowadzać analizę ryzyka związanego z funkcjonowaniem ich usług (taką usługą jest np. system rekomendujący treści) i wprowadzać środki, które będą minimalizować negatywny wpływ na nasze prawa podstawowe (np. prywatność i wolność wypowiedzi), fizyczny i psychiczny dobrostan i procesy demokratyczne.

Co to oznacza w praktyce? Naszym zdaniem VLOP-y powinny tak przeprogramować swoje algorytmy, żeby nie podbijały one treści, które mają charakter radykalizujący, polaryzujący, dezinformujący lub nienawistny. Eksponowanie tego typu treści w czasie kampanii wyborczej może mieć poważne konsekwencje dla procesów demokratycznych właśnie.

Co na to same platformy? Wygląda na to, że nie wszystkie i nie do końca wywiązują się ze swoich nowych obowiązków. W rezultacie Komisja Europejska, odpowiedzialna za egzekwowanie postanowień DSA rozpoczęła oficjalne postępowania m.in. przeciwko X i Mecie.

Doppelganger używa Facebooka do nakręcania konfliktu w Unii

Najciekawsze jest wielowątkowe śledztwo przeciwko Mecie, w którym Komisja Europejska sprawdza, czy korporacja dość skutecznie przeciwdziałała dezinformacji na swoich platformach społecznościowych. Badacze z organizacji AI Forensics ujawnili szeroko zakrojoną kampanię, w ramach której tysiące reklam opłaconych przez rosyjską siatkę Doppelganger było publikowanych bez weryfikacji. Sponsorowane posty, przedstawiające np. zdjęcia Taylor Swift czy Justina Biebera w zestawieniu z rzekomo wygłoszonymi przez nich prorosyjskimi i antyukraińskimi opiniami, docierały do milionów użytkowniczek i użytkowników od Polski przez Niemcy po Francję, kierując ich do stron podszywających się pod prawdziwe media (np. Der Spiegel czy Le Parisien).

Polska to jeden z krajów, gdzie siatka była (jest?) najbardziej aktywna. Cel operacji wydaje się jasny: przekonać wyborców do głosowania na kandydatki i kandydatów o programach nacjonalistycznych i antyunijnych, co podsyci konflikt wewnątrz Unii – i to w momencie, kiedy współpraca między krajami jest bardzo potrzebna (dla ochrony klimatu czy wobec zagrożenia ze strony Rosji).

Image
Fałszywy news o Sławomirze Mentzenie

Przykład fałszywego postu zachęcającego do wejścia na stronę – sobowtóra prawdziwego medium (Facebook)

Tymczasem Meta wykonuje ruchy pozorne, a nawet kontrskuteczne. Na przykład arbitralnie ogranicza zasięgi wszystkich treści o charakterze politycznym na Instagramie i Facebooku, nie różnicując ich na zmanipulowane i na treści wysokiej jakości.

Komisja stawia Mecie zarzuty o to, że nie dość skutecznie moderuje sponsorowane treści, przepuszczając przez sito tysiące postów rozsiewających rosyjską dezinformację, a jednocześnie ogranicza zasięgi treści organicznych o tematyce politycznej, które mogłyby być przeciwwagą dla zorganizowanej dezinformacji – bez odpowiedniego informowania o tym ich autorek i autorów.

W kwietniu 2024 r. kolejne reklamy opłacane przez siatkę Doppelganger dotarły do setek tysięcy osób w UE.

Europejczycy nie chcą być manipulowani [wyniki ankiety]

Targetowanie reklam (również tych o charakterze politycznym) jest możliwe dzięki danym, jakie platformy społecznościowe mają na temat swoich użytkowniczek i użytkowników. Taka wiedza daje realną władzę oraz możliwość kształtowania opinii i postaw społecznych. Według ankiety YouGov 61% osób korzystających z social mediów chciałoby, żeby platformy internetowe przestały domyślnie profilować je na podstawie danych o ich zachowaniu.

„To pokazuje, że mieszkańcy Unii Europejskiej są zaniepokojeni szkodliwymi skutkami działania mediów społecznościowych i nie podoba im się, jak są targetowani z pomocą algorytmów, żeby utrzymać ich uwagę. Właściciele największych portali społecznościowych wiedzą, jak sprawić, żeby były one bezpieczniejsze, ale nie robią tego. Apelujemy do Unii Europejskiej, żeby ich do tego zmusiła”.

Claudia Maguire, The Citizens 

Problem polaryzacji i dezinformacji, której sprzyjają mechanizmy rządzące w mediach społecznościowych, nabrzmiewa od lat. Żeby z nimi wygrać, nie wystarczy skuteczniejsza moderacja, obcinanie zasięgów i blokowanie manipulujących reklam. Potrzebne są systemowe zmiany – np. przestawienie algorytmów rekomendujących treści z angażowania za wszelką cenę na promowanie jakościowych treści i rzetelnych newsów. Zwłaszcza w okresie wyborczym.

„Organizacje zrzeszone w koalicji People vs Big Tech, w tym Panoptykon, wystosowały do Komisarza Thierry’ego Brettona apel, w którym wnioskujemy między innymi o to, by systemy rekomendacyjne w domyślnej wersji nie wykorzystywały profilowania behawioralnego (a więc nie grały na czułych strunach użytkowników w celu ich zaangażowania), oraz o inne interwencje powstrzymujące rozprzestrzenianie się polaryzujących i dezinformujących treści w tygodniu przed wyborami i po wyborach zaplanowanych na 9 czerwca 2024 r.”.

Katarzyna Szymielewicz, Fundacja Panoptykon

Tak, takie zmiany mogą oznaczać dla platform spadek zysków z reklam, ale najwyższy czas, żeby interes akcjonariuszy ustąpił interesowi społecznemu. Koncerny tytoniowe, paliwowe i producenci słodkich przekąsek też odprowadzają część zysków do wspólnego budżetu. Czy to oznacza pożegnanie się z darmowymi portalami? Raczej pożegnanie z fikcją tej darmowości, bo za korzystanie z nich i tak płacimy. I to nie tylko swoimi danymi, ale też naszym dobrostanem i jakością debaty publicznej.

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.