Algorytmiczny eksperyment Facebooka 

Artykuł
25.01.2018
8 min. czytania
Tekst
Image
Facebook. CC0 Public domain via Pixabay

Od 11 stycznia strumień aktualności na Facebooku (podobno) działa na nowych zasadach: treści, które zostały wrzucone przez naszych znajomych albo wywołały ich komentarze mają większą widoczność niż treści generowane przez media i inne strony (także organizacji i ruchów społecznych). Przez media przetoczyła się gorąca dyskusja o konsekwencjach decyzji Marka Zuckerberga: kto na niej straci, a kto zyska? Czy użytkownicy Facebooka zobaczą więcej wiarygodnych treści czy wręcz przeciwnie? W tym natłoku spekulacji łatwo przeoczyć podstawowy problem: reguły, na których opiera się działanie algorytmu profilującego treści, nadal  pozostają nieznane.

Facebook wraca do korzeni

Facebook zapowiedział, że będzie wyświetlał swoim użytkownikom więcej postów pochodzących bezpośrednio od rodziny i znajomych. Newsy i inne treści o charakterze publicznym na swoją widoczność będą musiały „zapracować”. Algorytm będzie brał pod uwagę przede wszystkim to, czy sprowokowały istotne interakcje – np. dłuższy komentarz lub żywą rozmowę – w danej sieci społecznościowej. Pozostałe znikną z głównego strumienia aktualności i będzie można do nich dotrzeć tylko wchodząc bezpośrednio na fanpage lub przez zakładkę Explore. No, chyba, że po prostu zapłacą Facebookowi za promocję.

Zuckerberg uspokaja, że nie wpłynie to na liczbę informacji, do jakich mają dostęp użytkownicy, a jedynie zwiększy ich wiarygodność. Logika w tym wywodzie jest następująca: skoro bliskie nam osoby uznały daną informację za wartą nie tylko podania dalej, ale także skomentowania, zapewne pochodzi ona z zaufanego lub wartościowego źródła. Ale to nie koniec nowości. Dodatkowym czynnikiem determinującym widoczność newsów ma być rating społecznościowy.

Wyższy priorytet zyskają treści pochodzące od tych mediów, które członkowie danej sieci społecznej uznali za wiarygodne. Facebook nie opublikował szczegółowych założeń tego mechanizmu, ale wydaje się, że nie chodzi o prosty system przyznawania gwiazdek, który obecnie funkcjonuje na publicznych profilach. Skoro rating ma być oparty o subiektywną ocenę danej społeczności – a nie średnią, wyliczaną w skali całego Facebooka – zapewne będzie to bardziej wyrafinowany i mniej przejrzysty algorytm.

Dyktat interakcji

Skąd ta zmiana? Oficjalnie Facebook troszczy się o nasze relacje i samopoczucie.  Według Zuckerberga, zagrożeniem dla jego portalu w ostatnich latach stała się eksplozja treści generowanych nie przez zwykłych użytkowników, ale przez profesjonalnych graczy – głównie media i strony popularnych marek. Zalani newsami i filmikami reklamowymi użytkownicy spędzają coraz więcej czasu biernie przeglądając swoje strumienie aktualności i nie wdając się w to, co Zuckerberg postrzega jako istotne interakcje.

Czy dzięki temu nasz czas na Facebooku stanie się lepszy, a docierające do nas wiadomości zyskają na jakości i wiarygodności?

Algorytmiczny eksperyment ma to zmienić, na nowo zaprzęgając użytkowników do aktywności, bez której Facebook nie jest w stanie pełnić funkcji filtra społecznościowego. Chodzi o to, żebyśmy nie tylko klikali i przesuwali, ale też komentowali, dyskutowali i wzmacniali swoje relacje, jednocześnie ujawniając coraz więcej informacji na swój temat. Mark Zuckerberg wyraził nadzieję, że dzięki temu nasz czas na Facebooku stanie się lepszy (well spent), a docierające do nas wiadomości zyskają na jakości i wiarygodności.

Z tymi intencjami polemizują media głównego nurtu, obawiające się przeciwnego efektu. Zdaniem wielu komentatorów użytkownikom grozi jeszcze szczelniejsze zamknięcie w bańkach informacyjnych, skoro głównym czynnikiem wpływającym na to, co zobaczą w strumieniu aktualności, będzie ich własna społeczność i emocje, jakie wyświetlane treści wywołały wśród ich znajomych.

Nie da się też ukryć, że media obawiają się nieuchronnego spadku własnych zasięgów. Zdaniem technologicznego serwisu Mashable, internet oparty o komentarze już się skończył. Odkąd władze w tej sferze przejęły trolle i hejterzy, coraz częstszą taktyką po stronie mediów jest blokowanie komentarzy lub ich ręczne moderowanie, a po stronie czytelników rzeczywiście szukających informacji – ignorowanie tej części strony. W ramach samego Facebooka komentarzy niewątpliwie jest więcej, ale nadal trudno oczekiwać, żeby każdy istotny czy merytoryczny artykuł pochodzący z mediów głównego nurtu wywoływał tego typu interakcje.

Kto skontroluje algorytm?

Niestety, cała dyskusja, którą wywołało publiczne oświadczenie Marka Zuckerberga o zmianie algorytmu odpowiedzialnego za strumień aktualności, rzuca niewiele światła na zasady działania portalu społecznościowego. Jeśli coś nam uświadamia, to raczej skalę naszej niewiedzy i podatność na prowadzone przez Facebooka eksperymenty, które w realny sposób przekładają się na nasze życie i debatę publiczną. Nadal tak naprawdę nie wiemy, w jaki sposób działają algorytmy odpowiedzialne za dobór treści wyświetlanych w strumieniu aktualności. Możemy jedynie spekulować, ile czynników ma na to wpływ i na ile są one powiązane z cechami lub zachowaniem samych użytkowników (czyli ich danymi osobowymi).

Zgodnie z obowiązującym prawem, Facebook jest zobowiązany ujawnić dane osobowe, które przetwarza, oraz wnioski, jakie z tych danych wyciąga na temat konkretnych osób, ale już niekoniecznie logikę swoich decyzji redakcyjnych. Sam portal broni się tym, że daje użytkownikom wpływ na dobór wyświetlanych treści. Rzeczywiście, korzystając z dostępnych ustawień, każdy użytkownik może wskazać źródła informacji, które w strumieniu aktualności będą traktowane priorytetowo. Facebook zastrzega jednak, że kolejność wyświetlania treści pochodzących z tych źródeł będzie przypadkowa. A przede wszystkim nie ujawnia kryteriów, według których dobiera i wyświetla wszystkie pozostałe.

Jak walczyć o przejrzystość algorytmów, które wpływają na selekcję wyświetlanych nam informacji, skoro ich logika wymyka się nawet wewnętrznemu audytowi firmy, która je projektuje?

Według serwisu Mashable, powołującego się na rozmowę z byłym pracownikiem Facebooka, system profilowania treści wykorzystywany przez tę firmę osiągnął już taki poziom skomplikowania, że nawet projektujący go inżynierowie nie są w stanie w pełni przewidzieć konsekwencji zmiany kluczowych parametrów. Jeśli to prawda, tym gorzej dla nas. Jak walczyć o przejrzystość algorytmów, które wpływają na selekcję wyświetlanych nam informacji, skoro ich logika wymyka się nawet wewnętrznemu audytowi firmy, która je projektuje?

To problem, który od dawna dojrzewa do regulacyjnej interwencji. Zasady audytowania algorytmów da się ustalić, opisać i wdrożyć na poziomie prawa. Pozytywne doświadczenia w tym zakresie ma m.in. sektor bankowy, gdzie do poprawności kryteriów wykorzystywanych przy scoringu podchodzi się poważnie. Nie ma powodu, by do algorytmów decydujących o tym, jakie treści są codziennie serwowane milionom ludzi w Polsce, podchodzić w mniej poważny sposób. Co więcej, nie ma powodu, by takie decyzje podejmowała sieć neuronowa, skoro jest to w stanie zrobić sam użytkownik.

Katarzyna Szymielewicz

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.