Platformy muszą oceniać, jak wpływają na zdrowie, prawa człowieka i demokrację. Analizujemy raport Facebooka

Artykuł
09.12.2024
15 min. czytania
Tekst
Image
Zdjęcie plakatu z Markiem Zuckerbergiem

Analizujemy pierwsze sprawozdania wielkich platform z oceny systemowych ryzyk. Na pierwszy ogień bierzemy Facebooka. W tym tekście o naszych odkryciach i rozczarowaniach. Najkrócej: Meta widzi zagrożenia związane z działaniem Facebooka, ale nie wszystkie.

Analizujemy największe platformy, żebyście wy nie musieli

Wspieraj naszą pracę!

Wielkie platformy internetowe (Very Large Online Platforms, VLOP-y) opublikowały długo oczekiwane raporty z wyników oceny ryzyka. Dowiadujemy się z nich, jak same firmy oceniają wpływ „sposobu projektowania lub funkcjonowania” ich usług (w tym systemów algorytmicznych) na m.in. prawa podstawowe ludzi, fizyczny i psychiczny dobrostan, ochronę zdrowia publicznego i małoletnich oraz dyskurs obywatelski i procesy wyborcze. 

Oceny ryzyka przekazywane są Komisji Europejskiej po weryfikacji przez niezależnych audytorów, którzy sporządzają własne raporty.

Raport „Independent Audit on Facebook (for the Period of 29 August 2023 to 30 June 2024)” 
[PDF w języku angielskim]

Konieczność przeprowadzania (cyklicznie!) ocen ryzyka wynika z aktu o usługach cyfrowych (Digital Services Act, DSA), który w stosunku do VLOP-ów obowiązuje od sierpnia 2023 r.

„Dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych z należytą starannością identyfikują, analizują i oceniają ryzyko systemowe w Unii wynikające z projektu lub funkcjonowania swojej usługi i powiązanych z nią systemów, w tym systemów algorytmicznych, lub z korzystania z ich usług”.

Artykuł 34 Digital Services Act

Obowiązek przeprowadzania i publikacji ocen ryzyka jest to jeden z sukcesów rzeczniczych organizacji walczących o prawa cyfrowe (w tym Panoptykonu), bo daje nam wgląd w działalność platform, a tym samym pozwala minimalizować ich szkodliwy wpływ na zdrowie ludzi czy funkcjonowanie całych społeczeństw.

Lekturę zaczęliśmy od sprawozdania Mety dotyczącego jej flagowej platformy, czyli Facebooka (załącznik pod tekstem). Byliśmy ciekawi szczególnie tego, jakie systemowe zagrożenia (cytując DSA, „faktyczne lub przewidywalne negatywne skutki”) związane z działaniem systemów rekomendacyjnych – które sami wielokrotnie krytykowaliśmy na podstawie niezależnych badań (zob. Fixing Recommender Systems) – dostrzegają ich twórcy i jak zamierzają im przeciwdziałać.

W przygotowaniu kolejne analizy, w których zajmiemy się ocenami ryzyka Instagrama, TikToka i YouTube’a.

Piętnaście systemów rekomendacyjnych

Meta potwierdza, że używa co najmniej piętnastu (!) systemów rekomendacyjnych. O zasadach tworzenia rankingu treści dla każdego z tych systemów można poczytać na poświęconej im stronie internetowej. Meta podkreśla ich kluczowe znaczenie dla funkcjonowania całej platformy i przyznaje, że mogą wpływać na wszystkie „obszary systemowych ryzyk”, a więc (to już nasze słowa) potęgować wszystkie negatywne efekty, o których możemy przeczytać w sprawozdaniu:

„Systemy rekomendacyjne to kluczowa funkcja naszej platformy i mamy szeroki wachlarz narzędzi do zarządzania nimi, ale niektóre potencjalnie problematyczne treści, które nie naruszają naszych wytycznych, mogą zostać zarekomendowane, zanim je wykryjemy i usuniemy, a niektóre naruszające zasady konta mogą uniknąć wykrycia przez filtry i zostać zarekomendowane, zanim je wykryjemy i usuniemy, podobnie niektóre konta łamiące regulamin mogą przemknąć przez nasze filtry i zostać zarekomendowane. Ten czynnik może mieć wpływ na wszystkie obszary systemowego ryzyka”.

Regulation (EU) 2022/2065 Digital Services Act (DSA). Systemic Risk Assessment and Mitigation Report for Facebook, s. 28

Meta między wierszami przyznaje, że zasada działania systemów rekomendacyjnych, które premiują treści mocno angażujące, może zwiększać „ekspozycję [użytkowników] na problematyczne treści”:

„Rutynowo ewaluujemy, czy sygnały, na których bazują rekomendacje treści odpowiednich dla użytkowników, mogą prowadzić do eksponowania problematycznych treści. Redukujemy to ryzyko poprzez limitowanie znaczenia udostępnień i komentarzy w dystrybucji wrażliwych tematów”.

Regulation (EU) 2022/2065 Digital Services Act (DSA). Systemic Risk Assessment and Mitigation Report for Facebook, s. 29

Udostępnienia i komentarze na cenzurowanym

Wśród wielu środków opisanych w sprawozdaniu najmilej zaskoczyło nas właśnie to, że Meta „limituje wpływ udostępnień i komentarzy na dystrybucję wrażliwych tematów”. To rozwiązanie spełnia jeden z naszych postulatów bezpiecznego projektowania systemów rekomendacyjnych (por. opracowanie Safe by Default, rozdział Optimising for values other than engagement).

Image
Kobieta trzyma kartkę z napisem "no comment"

„Są dowody na to, że premiowanie w systemach rekomendacyjnych materiałów, które wywołują największe zaangażowanie (liczone m.in. w udostępnieniach i komentarzach), podbija treści skrajne i szkodliwe”. Autor: Goumbik | Pexels

Potwierdza też, że Meta dostrzegła problem, na który od lat zwracają uwagę niezależni badacze (m.in. Integrity Institute i Center for Humane Technology założone przez osoby, które w przeszłości pracowały dla wielkich platform i znają ich systemy od kuchni). Są dowody na to, że premiowanie w systemach rekomendacyjnych materiałów, które wywołują największe zaangażowanie (liczone m.in. w udostępnieniach i komentarzach), podbija treści skrajne i szkodliwe.

Chcielibyśmy, żeby Meta wyciągnęła dalej idące wnioski i ograniczyła wpływ udostępnień i komentarzy w całym feedzie, a więc nie tylko dla wrażliwych tematów.

Nowe ustawienia użytkownika: kontrola treści i zarządzanie czasem

Nieprofilujący feed, suwaki dla zaawansowanych, przycisk „nie chcę tego widzieć” dla sfrustrowanych, programy wspierające dobrostan dla każdego… Wśród deklarowanych przez Metę metod minimalizowania ryzyka jest więcej takich, pod którymi moglibyśmy się podpisać obiema rękami i które rekomendujemy w opracowaniu Safe by Default (por. rozdziały: Prompting conscious user choicePositive friction to disrupt compulsive behaviour). 

Co jeszcze zmieniła Meta? M.in. zachęcanie użytkowników/użytkowniczek do świadomego zarządzania czasem, jaki spędzają na platformie, proponowanie im nieprofilowanego feedu i przycisk, za pomocą którego mogą kształtować jego zawartość (widzieć więcej albo mniej określonych treści):

„Meta oferuje użytkownikom możliwość kontrolowania, ile jakiego rodzaju treści (w tym treści wrażliwych lub niskiej jakości) widzą w swoim feedzie. Użytkownicy mogą kontrolować, czy chcą widzieć więcej, czy mniej (w zależności od rodzaju treści) takich treści w swoim feedzie”.

„Meta posiada program wsparcia użytkowników Facebooka i zapobiegania kontrowersyjnemu wykorzystaniu platformy. Użytkownicy są zachęcani do korzystania z narzędzi zarządzania czasem i innych zasobów, żeby mieć lepszą kontrolę i czuć większą sprawczość, jeśli chodzi o ich doświadczenie na Facebooku”.

Użytkownicy mogą skorzystać z łatwo dostępnych opcji nieprofilujących. Mogą zdecydować, że nie chcą używać systemów rekomendacyjnych opartych na wnioskowaniu, którego systemy Mety dokonują na podstawie danych użytkownika”.

„Meta posiada narzędzie WAIST, które dostarcza użytkownikom informacji, dlaczego wyświetliła im się dana reklama w feedzie lub w innych miejscach na platformach Mety. WAIST generuje wyjaśnienie w oparciu o modele uczenia maszynowego i algorytmy, które personalizują doświadczenie użytkownika, by podkreślić najważniejsze czynniki, które zdecydowały, że osoba zobaczyła daną reklamę”.

Regulation (EU) 2022/2065 Digital Services Act (DSA). Systemic Risk Assessment and Mitigation Report for Facebook

Czy na Facebooku naprawdę jest tak pięknie? Chcielibyśmy zobaczyć nie tylko obietnice, ale też dowody – ale o tym za chwilę.

 

A co z manipulującymi interfejsami? Meta posiada katalog manipulacji

Meta deklaruje, że już wdrożyła proces, dzięki któremu unika dostarczania manipulujących interfejsów (ang. avoid deceptive designs):

„Meta posiada katalog rozwiązań projektowych zidentyfikowanych jako prawdopodobnie manipulujące, żeby uniknąć wdrażania takich rozwiązań na platformach Mety. Katalog bazuje na rozwiązaniach wskazanych przez kluczowe źródła zewnętrzne (m.in. DSA, Europejską Radę Ochrony Danych i Federalną Komisję Handlu), żeby wskazać przykłady manipulujących rozwiązań, które mogą sprawić, że rozsądna osoba poczuje się oszukana, wprowadzona w błąd, przymuszona lub nakłoniona do zrobienia czegoś, czego w innych okolicznościach by nie zrobiła. Katalog jest wykorzystywany przez projektantów jako wskazówka, jak unikać manipulujących rozwiązań”.

Regulation (EU) 2022/2065 Digital Services Act (DSA). Systemic Risk Assessment and Mitigation Report for Facebook, s. 49

Czy tylko nam się wydaje, że ten wewnętrzny proces nie działa jeszcze idealnie? Chętnie dowiemy się, do kogo w Mecie można zgłaszać przykłady manipulacyjnych praktyk, jeśli na takie trafimy!

Czekamy na dowody, że to działa

Gdyby wszystkie narzędzia opisane w sprawozdaniu Mety działały tak dobrze na platformie, jak wyglądają na papierze, mielibyśmy powód do świętowania. Niestety, nasze własne obserwacje (jako świadomych użytkowników platformy) i niezależne badania każą jeszcze zachować sceptycyzm.

W opracowaniu Fixing Recommender Systems. From identification of risk factors to meaningful transparency and mitigation zebraliśmy wnioski płynące z badań, które ukazały się przed sierpniem 2023 r. (przed pierwszą rundą obowiązkowych analiz ryzyka). Na ich podstawie sformułowaliśmy sześć hipotez dotyczących tego, jak różne decyzje na etapie projektowania systemów rekomendacyjnych (np. dobór i znaczenie sygnałów, które wpływają na ranking treści) przyczyniają się do systemowych ryzyk. 

Określiliśmy, we współpracy z ekspertami z Integrity Institute i AI Forensics, jakie dane platformy powinny ujawnić, by umożliwić merytoryczną debatę na temat naszych hipotez i najlepszych strategii ograniczających ryzyko. Podobne oczekiwania formułowały inne organizacje (m.in. Amnesty International w głośnym raporcie dotyczącym TikToka).

W związku z publicznie pojawiającymi się zarzutami Meta powinna pokazać przekonujące dowody, że przynajmniej niektóre ze zgłaszanych problemów rozwiązała. A także wyjaśnić, na jakiej podstawie (jakich testów, badań, metryk) wypracowała takie, a nie inne, rozwiązania.

Tymczasem sprawozdanie na ten temat milczy. Nie znajdziemy w nim ani wyników prowadzonych na platformie testów A/B, ani badań jakościowych z udziałem użytkowników, które pokazałyby, jak skuteczne i jak szeroko wykorzystywane są wspomniane narzędzia.

Największy problem: algorytmy zoptymalizowane na zaangażowanie

Sprawozdanie Mety lawiruje wokół problemu, który firma mogłaby rozwiązać jedną decyzją: szkodliwości algorytmów rekomendujących treści. Zdaniem niezależnych badaczy premiowanie zaangażowania użytkowników i użytkowniczek za wszelką cenę wytwarza bardzo poważne ryzyko dla ich dobrostanu, zdrowia publicznego (w tym osób małoletnich), dyskursu obywatelskiego i procesów wyborczych (więcej o tych ryzykach możecie przeczytać w tekście Integrity Institute, We Worked On Election Integrity At Meta. The EU – And All Democracies – Need to Fix the Feed Before It’s Too Late).

Prawdą jest, że źródłem i twórcami szkodliwych treści są użytkownicy platformy, ale to tylko jeden z czynników ryzyka. Największe przełożenie na widoczność treści mają algorytmy, które ze względu na cele biznesowe platformy podbijają treści sensacyjne, polaryzujące, nierzadko szkodliwe. W swoim sprawozdaniu Meta wspomina wprawdzie, że systemy rekomendacyjne mają wpływ na dystrybucję dezinformacji i eksponowanie użytkowniczek/użytkowników na treści dotyczące samobójstw czy samookaleczania, ale to i tak grube niedopowiedzenie:

„Nasze systemy rekomendacyjne zaprojektowane są w taki sposób, żeby zapobiegać rekomendowaniu, redystrybuowaniu i wzmacnianiu zasięgów treści potencjalnie naruszających regulamin i w innych sposób problematycznych”.

Regulation (EU) 2022/2065 Digital Services Act (DSA). Systemic Risk Assessment and Mitigation Report for Facebook, s. 28

A zatem jako główne przyczyny systemowych ryzyk Meta wskazuje (nieodpowiedzialne) zachowania użytkowników (np. publikujących szkodliwe treści) i nadużywanie platformy przez aktorów zewnętrznych (np. do świadomego rozpowszechniania dezinformacji).

Zgodnie z tą logiką Meta, we fragmentach poświęconych dezinformacji i mowie nienawiści, dużo miejsca poświęca skutecznej moderacji – tak jakby systemy rekomendacyjne nie miały decydującego wpływu na widoczność treści, w tym tych szkodliwych. Mark Zuckerberg już w 2021 r. zwracał uwagę na ten problem:

„Jeden z największych problemów, z jakim zmagają się sieci społecznościowe, to fakt, że ludzie, pozostawieni sami sobie, nieproporcjonalnie angażują się w treści sensacyjne i prowokacyjne (…). W dużej skali wpływa to negatywnie na jakość debaty publicznej i prowadzi do polaryzacji (…). Nasze badania pokazują, że niezależnie od tego, gdzie postawimy granicę między tym, co jest, a tym, co nie jest dopuszczalne, kiedy treść zbliża się do tej granicy, ludzie średnio bardziej się w nią angażują (…). To podstawowy problem, na który odpowiadamy, zmniejszając widoczność treści granicznych”.

Wypowiedź Marka Zuckerberga z 2021 r. Źródło

Video file

„Nasze studium przypadku Algorytmy traumy pokazało, że systemy rekomendacyjne zoptymalizowane na zaangażowanie mogą eksploatować takie słabości użytkowników. Opierając się na danych behawioralnych, które zdradzają ich wrażliwe punkty, podsuwają treści dotykające właśnie tego tematu”. Wideo jest wstępem do reportażu.

Hiperpersonalizacja jako czynnik ryzyka

Skupiając się na przeciwdziałaniu dystrybucji treści niezgodnych z regulaminem, Meta pomija ryzyko związane z hiperpersonalizacją rekomendowanych treści, które – chociaż nie są groźne (szkodliwe) same w sobie – stają się takie, gdy w nadmiernej ilości zalewają osoby wrażliwe (np. przeżywające lęki lub frustracje) na jakimś punkcie (np. zdrowia, bezpieczeństwa, wyglądu). 

Nasze studium przypadku Algorytmy traumy pokazało, że systemy rekomendacyjne zoptymalizowane na zaangażowanie mogą eksploatować takie słabości użytkowników. Opierając się na danych behawioralnych, które zdradzają ich wrażliwe punkty, podsuwają treści dotykające właśnie tego tematu. W efekcie mogą wpędzić podatne osoby w szkodliwą pułapkę scrollowania i pogłębić lub wręcz wywołać poważne problemy psychiczne.

Krytycy nie są konsultowani

Na koniec warto wspomnieć o tym, jak Meta dobiera społecznych partnerów do konsultowania ocen ryzyka. W sprawozdaniu czytamy, że Meta pracuje z „zewnętrznymi interesariuszami w celu zebrania danych, wiedzy i perspektyw, w jaki sposób systemowe ryzyko realizuje się w mediach społecznościowych i jaki ma to wpływ na użytkowników i społeczeństwo”. Wśród tych interesariuszy podobno są zewnętrzne instytucje badawcze, grupy rzecznicze i organy ścigania. Ale najwyraźniej tylko te, od których Meta nie spodziewa się usłyszeć niewygodnych opinii albo trudnych pytań.

Image
Czekolada rozdawana po KE

„Koalicja People vs Big Tech, do której należy Panoptykon, zrzesza 120 organizacji społecznych o różnym profilu i badaczy zajmujących się wpływem platform społecznościowych na ludzi (również poza Europą). Nikt z tego grona nie został zaproszony do konsultacji, które Meta opisuje w swoim sprawozdaniu". Na zdjęciu akcja People vs Big Tech, w ramach której rozdaliśmy w Brukseli darmową czekoladę i informację o jej PRAWDZIWYM składzie. W ten sposób chcieliśmy zwrócić uwagę na to, że platformy internetowe też są darmowe, a prawdziwy koszt jest nieoczywisty.

„Dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych powinni zapewnić, aby ich podejście do oceny i zmniejszania ryzyka opierało się na najlepszych dostępnych informacjach i spostrzeżeniach naukowych oraz aby sprawdzali oni swoje założenia z grupami, na które ryzyko i podejmowane środki mają największy wpływ. W tym celu powinni w stosownych przypadkach przeprowadzać oceny ryzyka i opracowywać środki zmniejszające ryzyko z udziałem przedstawicieli odbiorców usługi, przedstawicieli grup, na które ich usługi mogą wywierać wpływ, niezależnych ekspertów i organizacji społeczeństwa obywatelskiego”.

Motyw 90 Digital Services Act

Koalicja People vs Big Tech, do której należy Panoptykon, zrzesza 120 organizacji społecznych o różnym profilu i badaczy zajmujących się wpływem platform społecznościowych na ludzi (również poza Europą). Nikt z tego grona nie został zaproszony do konsultacji, które Meta opisuje w swoim sprawozdaniu. Trudno tu mówić o przypadku – to raczej świadoma decyzja osób odpowiedzialnych za współpracę firmy z otoczeniem.

W tym przekonaniu utwierdza nas to, że w grudniu 2023 r. Meta odmówiła odniesienia się do wyników naszego badania – mimo wielu próśb, jakie skierowaliśmy do przedstawicieli firmy w Polsce i za granicą. Być może stało się tak dlatego, że Meta nie miała hiperpersonalizacji na mapie problemów do rozwiązania, a my właśnie na ten temat mieliśmy coś ważnego do powiedzenia. 

A może dlatego, że rzucamy światło na problem, którego rozwiązanie uderza w model biznesowy platformy.

Pozostaje mieć nadzieję, że problemami, którymi Meta sama woli się nie zajmować, zajmie się Komisja Europejska – w ramach egzekwowania przepisów DSA.

Dorota Głowacka, Anna Obem
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.