Artykuł 25.01.2018 8 min. czytania Tekst Image Od 11 stycznia strumień aktualności na Facebooku (podobno) działa na nowych zasadach: treści, które zostały wrzucone przez naszych znajomych albo wywołały ich komentarze mają większą widoczność niż treści generowane przez media i inne strony (także organizacji i ruchów społecznych). Przez media przetoczyła się gorąca dyskusja o konsekwencjach decyzji Marka Zuckerberga: kto na niej straci, a kto zyska? Czy użytkownicy Facebooka zobaczą więcej wiarygodnych treści czy wręcz przeciwnie? W tym natłoku spekulacji łatwo przeoczyć podstawowy problem: reguły, na których opiera się działanie algorytmu profilującego treści, nadal pozostają nieznane. Facebook wraca do korzeni Facebook zapowiedział, że będzie wyświetlał swoim użytkownikom więcej postów pochodzących bezpośrednio od rodziny i znajomych. Newsy i inne treści o charakterze publicznym na swoją widoczność będą musiały „zapracować”. Algorytm będzie brał pod uwagę przede wszystkim to, czy sprowokowały istotne interakcje – np. dłuższy komentarz lub żywą rozmowę – w danej sieci społecznościowej. Pozostałe znikną z głównego strumienia aktualności i będzie można do nich dotrzeć tylko wchodząc bezpośrednio na fanpage lub przez zakładkę Explore. No, chyba, że po prostu zapłacą Facebookowi za promocję. Zuckerberg uspokaja, że nie wpłynie to na liczbę informacji, do jakich mają dostęp użytkownicy, a jedynie zwiększy ich wiarygodność. Logika w tym wywodzie jest następująca: skoro bliskie nam osoby uznały daną informację za wartą nie tylko podania dalej, ale także skomentowania, zapewne pochodzi ona z zaufanego lub wartościowego źródła. Ale to nie koniec nowości. Dodatkowym czynnikiem determinującym widoczność newsów ma być rating społecznościowy. Wyższy priorytet zyskają treści pochodzące od tych mediów, które członkowie danej sieci społecznej uznali za wiarygodne. Facebook nie opublikował szczegółowych założeń tego mechanizmu, ale wydaje się, że nie chodzi o prosty system przyznawania gwiazdek, który obecnie funkcjonuje na publicznych profilach. Skoro rating ma być oparty o subiektywną ocenę danej społeczności – a nie średnią, wyliczaną w skali całego Facebooka – zapewne będzie to bardziej wyrafinowany i mniej przejrzysty algorytm. Dyktat interakcji Skąd ta zmiana? Oficjalnie Facebook troszczy się o nasze relacje i samopoczucie. Według Zuckerberga, zagrożeniem dla jego portalu w ostatnich latach stała się eksplozja treści generowanych nie przez zwykłych użytkowników, ale przez profesjonalnych graczy – głównie media i strony popularnych marek. Zalani newsami i filmikami reklamowymi użytkownicy spędzają coraz więcej czasu biernie przeglądając swoje strumienie aktualności i nie wdając się w to, co Zuckerberg postrzega jako istotne interakcje. Czy dzięki temu nasz czas na Facebooku stanie się lepszy, a docierające do nas wiadomości zyskają na jakości i wiarygodności? Algorytmiczny eksperyment ma to zmienić, na nowo zaprzęgając użytkowników do aktywności, bez której Facebook nie jest w stanie pełnić funkcji filtra społecznościowego. Chodzi o to, żebyśmy nie tylko klikali i przesuwali, ale też komentowali, dyskutowali i wzmacniali swoje relacje, jednocześnie ujawniając coraz więcej informacji na swój temat. Mark Zuckerberg wyraził nadzieję, że dzięki temu nasz czas na Facebooku stanie się lepszy (well spent), a docierające do nas wiadomości zyskają na jakości i wiarygodności. Z tymi intencjami polemizują media głównego nurtu, obawiające się przeciwnego efektu. Zdaniem wielu komentatorów użytkownikom grozi jeszcze szczelniejsze zamknięcie w bańkach informacyjnych, skoro głównym czynnikiem wpływającym na to, co zobaczą w strumieniu aktualności, będzie ich własna społeczność i emocje, jakie wyświetlane treści wywołały wśród ich znajomych. Nie da się też ukryć, że media obawiają się nieuchronnego spadku własnych zasięgów. Zdaniem technologicznego serwisu Mashable, internet oparty o komentarze już się skończył. Odkąd władze w tej sferze przejęły trolle i hejterzy, coraz częstszą taktyką po stronie mediów jest blokowanie komentarzy lub ich ręczne moderowanie, a po stronie czytelników rzeczywiście szukających informacji – ignorowanie tej części strony. W ramach samego Facebooka komentarzy niewątpliwie jest więcej, ale nadal trudno oczekiwać, żeby każdy istotny czy merytoryczny artykuł pochodzący z mediów głównego nurtu wywoływał tego typu interakcje. Kto skontroluje algorytm? Niestety, cała dyskusja, którą wywołało publiczne oświadczenie Marka Zuckerberga o zmianie algorytmu odpowiedzialnego za strumień aktualności, rzuca niewiele światła na zasady działania portalu społecznościowego. Jeśli coś nam uświadamia, to raczej skalę naszej niewiedzy i podatność na prowadzone przez Facebooka eksperymenty, które w realny sposób przekładają się na nasze życie i debatę publiczną. Nadal tak naprawdę nie wiemy, w jaki sposób działają algorytmy odpowiedzialne za dobór treści wyświetlanych w strumieniu aktualności. Możemy jedynie spekulować, ile czynników ma na to wpływ i na ile są one powiązane z cechami lub zachowaniem samych użytkowników (czyli ich danymi osobowymi). Zgodnie z obowiązującym prawem, Facebook jest zobowiązany ujawnić dane osobowe, które przetwarza, oraz wnioski, jakie z tych danych wyciąga na temat konkretnych osób, ale już niekoniecznie logikę swoich decyzji redakcyjnych. Sam portal broni się tym, że daje użytkownikom wpływ na dobór wyświetlanych treści. Rzeczywiście, korzystając z dostępnych ustawień, każdy użytkownik może wskazać źródła informacji, które w strumieniu aktualności będą traktowane priorytetowo. Facebook zastrzega jednak, że kolejność wyświetlania treści pochodzących z tych źródeł będzie przypadkowa. A przede wszystkim nie ujawnia kryteriów, według których dobiera i wyświetla wszystkie pozostałe. Jak walczyć o przejrzystość algorytmów, które wpływają na selekcję wyświetlanych nam informacji, skoro ich logika wymyka się nawet wewnętrznemu audytowi firmy, która je projektuje? Według serwisu Mashable, powołującego się na rozmowę z byłym pracownikiem Facebooka, system profilowania treści wykorzystywany przez tę firmę osiągnął już taki poziom skomplikowania, że nawet projektujący go inżynierowie nie są w stanie w pełni przewidzieć konsekwencji zmiany kluczowych parametrów. Jeśli to prawda, tym gorzej dla nas. Jak walczyć o przejrzystość algorytmów, które wpływają na selekcję wyświetlanych nam informacji, skoro ich logika wymyka się nawet wewnętrznemu audytowi firmy, która je projektuje? To problem, który od dawna dojrzewa do regulacyjnej interwencji. Zasady audytowania algorytmów da się ustalić, opisać i wdrożyć na poziomie prawa. Pozytywne doświadczenia w tym zakresie ma m.in. sektor bankowy, gdzie do poprawności kryteriów wykorzystywanych przy scoringu podchodzi się poważnie. Nie ma powodu, by do algorytmów decydujących o tym, jakie treści są codziennie serwowane milionom ludzi w Polsce, podchodzić w mniej poważny sposób. Co więcej, nie ma powodu, by takie decyzje podejmowała sieć neuronowa, skoro jest to w stanie zrobić sam użytkownik. Katarzyna Szymielewicz Fundacja Panoptykon Autor Temat algorytmy profilowanie Internet Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Uwaga, konkurs! Do wygrania „Człowiek, który wynalazł Internet” Masowa inwigilacja komunikacji elektronicznej, Internet zdominowany przez gigantów z Doliny Krzemowej dostarczających pseudowartość w zamian za całkiem prawdziwe dane, manipulacja informacją, technologia deepfake umożliwiająca włożenie dowolnych słów w usta dowolnej osoby – nie o takim Internecie… 22.11.2019 Tekst Artykuł „Rosyjski” FaceApp nie jest groźniejszy od samego Facebooka Czy zaspokojenie ciekawości, jak możesz wyglądać za kilkadziesiąt lat, naprawdę jest warte tak dużo, by w zamian oddać dostęp do wrażliwych danych nieznanej aplikacji, do tego rosyjskiej? Maciej Kawecki z Ministerstwa Cyfryzacji przestrzega przed bezrefleksyjnym korzystaniem z usługi… 19.07.2019 Tekst Artykuł Czy jeszcze wybieramy? Zapraszamy na rozmowę o marketingu politycznym 2.0 [Aktualizacja: zapis sesji Marketing Polityczny 2.0. jest dostępny na kanale Concillium Civitas] W jaki sposób podejmujemy decyzje wyborcze? Czy ten, kto zna nasze potrzeby i słabości, rzeczywiście może sprawić, że zmienimy swoje poglądy, a przynajmniej skutecznie nas zniechęcić do… 27.06.2019 Tekst