Twoje social media. Sprawdzamy je po roku od przyjęcia nowej konstytucji Internetu

Artykuł
23.10.2023
11 min. czytania
Tekst
Image
Tłum używający telefonów komórkowych

Akt o usługach cyfrowych (DSA) miał zmienić zasady gry, zwłaszcza na największych platformach internetowych, czyli VLOP-ach. Przyjrzeliśmy się, co w rok od przyjęcia DSA zmieniło się w działaniu systemów rekomendacyjnych trzech platform: YouTube’a, Facebooka i TikToka.

Nowa konstytucja Internetu. Co miało zmienić DSA?

Zgodnie z DSA platformy miały zapewnić swoim użytkowniczkom i użytkownikom:

  • większą przejrzystość systemów rekomendacyjnych;
  • możliwość przełączenia się na alternatywny, nieprofilowany feed;
  • narzędzia kontroli (co prawda nieobowiązkowe, ale jeśli już istnieją – powinny działać) nad wyświetlającymi się treściami.

DSA zostało przyjęte w październiku 2022 r. Na wdrożenie nowych narzędzi platformy miały czas do 25 sierpnia 2023 r. Jak wywiązały się z obowiązków?

Uwaga: to jest nasz przegląd najciekawszych funkcji oferowanych przez trzy wybrane platformy: YouTube’a, Facebooka i TikToka. Ze względu na złożoność systemów rekomendujących treści, testowanie przez VLOP-y różnych wersji interfejsów jednocześnie i dynamicznie wprowadzane przez nie zmiany nie możemy jeszcze przygotować ich kompleksowej oceny.

Po pierwsze: przejrzystość

Wszystkie trzy VLOP-y, którym się przyjrzeliśmy, dają wgląd w zasady działania stosowanych przez platformy systemów rekomendacyjnych. Inaczej mówiąc: wyjaśniają, co wpływa na ranking rekomendowanych treści. Wskazują, że jedne czynniki mają większe znaczenie niż inne. A przede wszystkim uświadamiają, że mamy do czynienia z naprawdę złożonymi, uczącymi się systemami.

  • YouTube: „Analizujemy ponad 80 miliardów informacji, które nazywamy sygnałami. (…) Kliknięcia, czas oglądania, odpowiedzi na ankiety, szerowanie, oznaczenia »lubię« i »nie lubię« pozwalają systemowi określić, jakie treści uznasz za satysfakcjonujące”.
  • Facebook: System „dokonuje prognoz dotyczących materiałów, które użytkownicy uważają za najbardziej interesujące i wartościowe. Te modele predykcyjne wykorzystują powiązane sygnały wejściowe (…). Sygnały wejściowe dzielą się na szerokie kategorie, takie jak unikatowe cechy posta, sposób interakcji innych użytkowników z postem oraz sposób, w jaki użytkownicy wchodzili w interakcje z podobnymi materiałami”.
  • TikTok: Rekomendacje „oparte są na wielu czynnikach, w tym na: interakcjach użytkownika, np. filmach, które lubi, udostępnia, komentuje, ogląda w całości lub pomija (…), danych filmu, takie jak podpisy, dźwięki, hasztagi (…). Większe znaczenie niż inne czynniki ma czas spędzony na oglądaniu konkretnego filmu”.

Okazuje się, że owiane nimbem tajemnicy algorytmy platform internetowych da się opisać językiem zrozumiałym nie tylko dla ekspertek i ekspertów (może z wyjątkiem firmy Meta (Facebook), która wprawdzie udostępniła najwięcej szczegółów o swoim systemie, ale też postawiła na styl: „pokażemy wam, jakie to skomplikowane”) – i że nie wiąże się to ze zdradzeniem tajemnic handlowych.

Z tych opisów przebija ważna prawda o systemach rekomendacyjnych: są optymalizowane na zaangażowanie użytkownika. Treści dobierane są dzięki przewidywaniu, co ci się spodoba, na podstawie sygnałów, jakie dostarczasz, korzystając z platformy. A najwięcej znaczą w rankingu te sygnały, które zdradzają silne zaangażowanie.

Video file

Wideo o kampanii społecznej dotyczącej problemów z algorytmami platform

Organizacje społeczne i badacze krytykujący VLOP-y, w tym Panoptykon, stawiały taką tezę już wcześniej. Działaliśmy jednak tylko w oparciu o własne eksperymenty i próby odtworzenia logiki systemów rekomendacyjnych (tzw. reverse engineering). Dzięki informacjom, które platformy opublikowały w związku z wdrożeniem DSA, teraz wiemy to na pewno – i to z pierwszej ręki.

Fakt, że wiemy więcej o konstrukcji feedów, nie oznacza jednak, że możemy sprawdzić lub w pełni zrozumieć, dlaczego na ekranie wyświetliła się nam konkretna treść. Jakie działania miały na to wpływ albo co konkretnie trzeba w swoim zachowaniu zmienić, żeby dostać inną rekomendację, pozostaje zagadką. TikTok informuje: to, że widzisz ten film, „może być spowodowane tym, że: udostępniłeś/-aś podobne filmy, ten film jest popularny w twoim kraju, ten film jest dłuższy, więc może ci się spodobać”. Taki opis nie wnosi wiele ponad to, co już wiemy z ogólnego opisu systemu rekomendacyjnego.

Po drugie: nieprofilowany newsfeed

Każda z trzech analizowanych platform daje osobom, które z niej korzystają, możliwość przestawienia feedu na wersję nieprofilowaną, czyli taką, która nie bazuje na śledzeniu i analizowaniu zachowań. Jak bardzo jest to skomplikowane? I jakie daje korzyści?

  • YouTube wymaga sporej determinacji. Żeby wyłączyć personalizowane rekomendacje, trzeba usunąć historię oglądania i wyłączyć jej dalsze śledzenie. Przy ponownym otwarciu aplikacji pojawia się jednak zachęta, żeby przywrócić poprzednie ustawienia. I obietnica, że śledzenie historii i profilowanie pozwoli wyświetlić najnowsze treści dobrane do twoich potrzeb. Niespersonalizowane rekomendacje na YouTubie są dostępne przez cały czas, ale droga do nich prowadzi poprzez mało eksponowane zakładki, takie jak „wiadomości” (dość przypadkowy wybór) czy „na czasie” (filmy aktualnie cieszące się popularnością).
  • Facebook zaproponował najciekawsze wyjście. Oparł alternatywne feedy na sieci społecznościowej danej osoby i źródłach, które świadomie wybrała (tj. na jej znajomych i stronach, które lubi bądź obserwuje, od których chce lub nie chce otrzymywać informacji), wyświetlanych chronologicznie (od najnowszych). Jednak dojście do braku profilowanych treści wymaga nieco poklikania. Nie jest to intuicyjna ścieżka.
  • TikTok oferuje najbardziej przyjazną opcję przełączenia feedu: funkcja wyłączenia „spersonalizowanych aktualności” jest dostępna z poziomu ekranu głównego. Jednak to, co dostajemy po przełączeniu się, nie jest szczególnie atrakcyjne. W nieprofilowanym feedzie zobaczymy treści „najbardziej popularne” (czyli w praktyce przypadkowe, nierzadko clickbaitowe).

Wybór feedu nie ma wpływu na dobór reklam na Facebooku i TikToku: te są personalizowane (jak utrzymują platformy: dobierane do twoich zainteresowań) również po przełączeniu się na nieprofilowany feed. W usługach Google’a można wyłączyć personalizację reklam z poziomu ustawień konta.

Po trzecie: wpływ na feed

Dobra wiadomość: każda z trzech analizowanych platform oferuje różne możliwości wpływania na to, co trafia do naszego feedu. Wprawdzie wciąż poruszamy się w ramach modelu biznesowego VLOP-ów, czyli założenia, że ludzie chcą być angażowani (o tym niżej), ale za pomocą filtrów, suwaków i informacji zwrotnej możemy przynajmniej wpłynąć na to, jakie treści są wykorzystywane do tego celu.

Oto kilka przykładów takich narzędzi:

  • YouTube daje możliwość przekazania pozytywnego lub negatywnego feedbacku (opcje: łapka w górę, łapka w dół, „pokaż więcej takich”, „pokaż mniej takich”, „nie interesuje mnie to”) oraz zablokowania treści z wybranego kanału.
  • Facebook daje możliwość wyciszenia danego źródła, ukrycia postów i zaznaczenia, że chcemy dostawać mniej podobnych treści. Facebook wprowadził też funkcje, które pozwalają ustawiać różne progi tolerancji na specjalne kategorie treści. Na przykład w przypadku treści clickbaitowych, których widoczność jest domyślnie ograniczona, użytkownik może takie ograniczenie albo wyłączyć (zwiększając widoczność takich treści) albo wzmocnić (eliminując je). W momencie pisania tekstu funkcja była dostępna w angielskiej wersji interfejsu – po przełączeniu na język polski zniknęła.
  • TikTok pozwala odfiltrować treści po słowach kluczowych (np. wykluczyć treści ze słowem „klaun”) lub przy konkretnych materiałach wybrać opcję „Nie interesuje mnie”, która dla platformy ma być informacją, aby unikać wyświetlania podobnych treści w przyszłości.

Na każdej z platform można łatwo zgłosić nadużycie – jeśli konkretna treść narusza prawo lub regulamin serwisu. Takie sygnały trafiają do działu moderacji i ten decyduje, czy daną treść zostawi, usunie, ograniczy jej widoczność. Zdarza się też, że moderacja blokuje konto, którego dotyczy zgłoszenie. Inaczej wygląda to w przypadku treści, których nie masz ochoty oglądać, mimo że nie naruszają one ani prawa, ani regulaminu. O tym niżej.

Image
Panel do zarządzania treścią. Facebook

Niektóre możliwości zarządzania treścią są w tym momencie dostępne tylko w angielskiej wersji aplikacji

Drogi VLOP-ie! Nasza lista życzeń do największych platform

Najciekawsze narzędzia, które znajdujemy na platformach społecznościowych, to te, które zachęcają do dawania feedbacku, czyli trenowania algorytmu tak, by rekomendował treści rzeczywiście dopasowane do naszych potrzeb i zainteresowań. Nie wszystkie z tych narzędzi są nowe (niektóre są starsze niż DSA). Jednak – przynajmniej dotychczas – ich skuteczność pozostawiała wiele do życzenia.

Potwierdzają to liczne badania, m.in. Fundacji Mozilla, która sprawdziła możliwość wpłynięcia na rekomendacje na YouTubie, czy nasze studium przypadku „Algorytmy traumy”, w którym badaliśmy możliwość wpłynięcia na dobór tematyki reklam na Facebooku.

Oba badania potwierdziły przypuszczenia, że informacja zwrotna od użytkowników nie jest dla systemów rekomendacyjnych najważniejsza. O tym, czy coś trafi do twojego strumienia aktualności, decydują w pierwszej kolejności sygnały behawioralne: w co klikasz, co podajesz dalej, jak długo zatrzymał cię konkretny post etc. Czy pod rządami DSA to się zmieni? Naszym zdaniem powinno!

DSA nie narzuca VLOP-om konkretnych narzędzi dla osób, które chciałyby aktywnie i świadomie kształtować swój feed. Ale jeśli sama platforma takie narzędzia wprowadza – zgodnie z DSA powinny być one łatwo dostępne i skuteczne. Tę skuteczność będziemy w tym roku testować (stay tuned!).

Nasza lista życzeń ma trzy punkty:

  1. Więcej sprawczości. Chcielibyśmy zobaczyć, jak przekazywana mozolnie informacja zwrotna i zdefiniowane filtry („nie pokazuj mi tego”/„pokazuj mniej”) przekładają się na dobór rekomendowanych treści. Pokazanie, jak na przestrzeni tygodnia czy miesiąca zmieniał się feed – jakie treści z niego wypadły, a jakie pojawiły się pod wpływem informacji zwrotnej – mówiłoby użytkownikom więcej niż ogólnikowe wyjaśnienie „dlaczego to widzę” (dostępne na niektórych platformach).
  2. Wybór tematów. Chcielibyśmy mieć możliwość wyrażenia – z góry i wprost – swoich preferencji co do typu treści lub tematów, które pojawią się w feedzie. Żadna z testowanych przez nas platform nie daje takiej możliwości (TikTok na wejściu wprawdzie pyta o nie nowe osoby, ale algorytm szybko przechodzi do rekomendowania treści także spoza zadeklarowanych zainteresowań).

    Jak potwierdzają opisy systemów rekomendacyjnych (patrz wyżej), ich zadaniem jest przewidzieć, który temat i typ treści w danym momencie cię zaangażuje. Przy czym „zaangażowanie” jest mierzone w jednostkach czasu spędzonego na platformie i liczbie interakcji, w jakie dajesz się wciągnąć. Co by było, gdyby abstrakcyjne, biznesowe wskaźniki zastąpiła jakość doświadczenia?
  3. Więcej władzy nad algorytmem. Chcielibyśmy móc stawiać własne cele algorytmom rekomendującym treści. Alternatywa, jaką dziś oferują, sprowadza się do decyzji: „chcę profilowania w pakiecie ze śledzeniem tego, co robię w sieci” albo „chcę oglądać treści w trybie »telewizyjnym« (to, co akurat jest popularne)”.

    W każdym z tych trybów możemy sobie to i owo odfiltrować, ale to nadal nie jest autentyczna personalizacja, którą niegdyś obiecywały usługi internetowe. A przecież „zaangażuj mnie za wszelką cenę” i „chcę scrollować jak najdłużej” to nie są nasze intencje! To cel biznesowy platform, które zarabiają na wyświetlanych reklamach.

Co by było, gdybyśmy mogli zażądać innego doświadczenia? Na przykład:

  • „pokaż rzetelne newsy ze świata na temat X”,
  • „pokaż lżejsze treści”,
  • „pokaż treści różnorodne, także spoza mojej bańki informacyjnej”,
  • „mam dość stymulacji – pomóż mi się wyciszyć”.

Czy takie doświadczenie na platformach społecznościowych jest do pomyślenia? Według nas – tak!

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.