Artykuł 04.11.2021 9 min. czytania Tekst Image Nie milknie burza po ujawnieniu przez Frances Haugen dokumentów Facebooka potwierdzających, że w mediach społecznościowych należących do giganta działo się wiele złego – o czym firma wiedziała, ale nic z tym nie zrobiła. Czy europejscy politycy wyciągną wnioski i – zamiast naklejać plasterki na otwartą ranę – zdecydują się na dalej idącą reformę, która zmusi giganta do otwarcia się na rozwiązania wykorzystujące inne modele biznesowe? Wysłuchanie Haugen, które odbędzie się już 8 listopada 2021 r. w Parlamencie Europejskim, to idealna okazja, żeby zobaczyć, jak wiele szkód rodzi niekontrolowana władza platform internetowych, i zastanowić się, jak skutecznie rozwiązać ten problem. Dokumenty ujawnione przez Frances Haugen rzucają więcej światła na problemy, o których piszemy nie od dziś. Niedawno informowaliśmy na przykład o przeprowadzonym przez nas eksperymencie, który pokazał, że algorytm odpowiedzialny za to, jakie treści i reklamy oglądają użytkownicy na Facebooku, żeruje na ich słabościach i wzmacnia lęki. Dzięki Haugen wiemy, że Facebook miał świadomość wzmacniania przez algorytm wykorzystywany na Instagramie zaburzeń wśród nastolatek – ale nic z tym nie zrobił. Od 2019 r. prowadzimy przeciwko gigantowi sprawę dotyczącą arbitralnego i nieprzejrzystego usuwania treści. Kwestionujemy w niej sposób działania moderacji na jego platformach, które powodują, że treści społecznie pożyteczne są ukrywane przed odbiorcami. Z Facebook Files dowiedzieliśmy się, że algorytmy moderacyjne inaczej traktują instagramowe i facebookowe sławy niż zwykłych Kowalskich. Algorytm de facto zwiększył już głębokie podziały w społeczeństwie Z kolei w 2018 r. ze sporym sceptycyzmem przyglądaliśmy się zmianom algorytmu Facebooka, który miał promować treści zamieszczane przez znajomych. Mark Zuckerberg wyrażał wtedy nadzieję, że czas spędzony na Facebooku będzie lepszy, a docierające do użytkowników i użytkowniczek wiadomości zyskają na wiarygodności. Dokumenty ujawnione przez sygnalistkę potwierdziły nasze obawy: algorytm de facto zwiększył już głębokie podziały w społeczeństwie. W Polsce same partie polityczne przyznały się, że z powodu tego, jak działa algorytm Facebooka, stawiają na postowanie treści nacechowanych negatywnymi emocjami. Frances Haugen mówi, że Facebook sam się nie ureguluje. Zwraca uwagę, że potrzebujemy do tego odpowiednich przepisów i instytucji. Jej zdaniem należy zwiększyć odpowiedzialność prawną platformy za to, jakie materiały polecają jej algorytmy, i nakazać Facebookowi wyświetlanie treści chronologicznie. Należy też wprowadzić rozwiązania zapobiegające szybkiemu rozchodzeniu się niesprawdzonych czy szkodliwych treści, pozwolić na niezależne badania w ramach platform Facebooka, a także powołać specjalną instytucję, która będzie kontrolowała działanie firmy. Próba naprawiania Facebooka – bez podważania jego modelu biznesowego – ma swoje ograniczenia. O ile w 100% zgadzamy się z diagnozą sygnalistki dotyczącą szkód powodowanych przez sposób działania Facebooka i Instagrama i tego, że Facebook nie naprawi się sam, nie do końca przytakujemy proponowanym przez nią rozwiązaniom. Z ponad dekady doświadczenia w zmaganiu się z wyzwaniami związanymi z regulacją platform internetowych wyciągnęliśmy ważny wniosek: próba naprawiania Facebooka – bez podważania jego modelu biznesowego – ma swoje ograniczenia. Dotychczasowe wysiłki regulacyjne dotyczące odpowiedzialności za treść (dyrektywa e-commerce), prywatności (RODO) czy konkurencji (działania Komisji Europejskiej) nie były skuteczne. A to dlatego, że regulator zawsze reaguje po fakcie i nie jest w stanie nadążyć za algorytmicznymi eksperymentami, które Facebook prowadzi na użytkownikach i użytkowniczkach w czasie rzeczywistym. Przygotowywany właśnie w Unii Europejskiej pakiet DSA-DMA (akt o usługach cyfrowych i akt o rynkach cyfrowych) do pewnego stopnia realizuje postulaty Frances Haugen. Nowe przepisy wyposażą krajowe organy nadzorcze i Komisję Europejską w nowe kompetencje, umożliwią im zaglądanie „do środka” Facebooka i nałożą na platformę nowe obowiązki (np. dotyczące przeprowadzania oceny ryzyka algorytmów). Te rozwiązania są niewątpliwie potrzebne, ale naszym zdaniem niewystarczające. To podejście nadal bowiem zakłada, że jesteśmy w stanie naprawić Facebooka, naklejając tu i tam kilka plasterków. Nie uwzględnia, że toksyczne algorytmy rekomendacyjne, które szkodzą społeczeństwu i poszczególnym użytkownikom i użytkowniczkom, są nierozerwalnie związane z samym modelem biznesowym platformy. Jedyna droga do realnej zmiany to regulacja, która umożliwi wprowadzenie na Facebook alternatywnych algorytmów rekomendacyjnych. Tak długo, jak Facebook czerpie swoje miliardowe zyski ze śledzącej reklamy, która wymaga projektowania algorytmów pod kątem maksymalizowania zaangażowania użytkowników i użytkowniczek i analizy ich zachowania, wszelkie „ulepszenia” i „naprawy” będą powierzchowne. Naszym zdaniem jedyna droga do realnej zmiany to regulacja, która umożliwi wprowadzenie na Facebook alternatywnych algorytmów rekomendacyjnych. Alternatywnych, bo opartych na innych wartościach i parametrach niż te, które obowiązują na platformach finansowanych z reklamy, a które sprowadzają się do zaangażowania użytkownika za wszelką cenę. Dopiero możliwość wyboru zewnętrznych rozwiązań – albo działających w modelu non profit, albo komercyjnych, ale bazujących na innych modelach biznesowych – ma szansę spowodować, że to interesy użytkowników i użytkowniczek, a nie reklamodawców, będą miały pierwszeństwo. Pod tym postulatem podpisało się 50 organizacji broniących praw cyfrowych. Wysłuchanie Frances Haugen w Parlamencie Europejskim będzie idealną okazją, żeby dokładniej przyjrzeć się, jakie szkody powoduje niekontrolowana władza platform internetowych, i zastanowić nad rozwiązaniem tego problemu w oparciu o nasze europejskie doświadczenia. Anna Obem, Karolina Iwańska Wspólne wystąpienie organizacji społecznych w sprawie systemów rekomendacyjnych Panoptykon: List organizacji ws wysłuchania Frances Haugen w Parlamencie Europejskim The Wall Street Journal: The Facebook Whistleblower, Frances Haugen, Says She Wants to Fix the Company, Not Harm It The Guardian: Frances Haugen takes on Facebook: the making of a modern US hero W czasie przygotowywania tego tekstu na temat Facebook Files ukazały się 43 nowe artykuły w 13 mediach. Aktualizowana lista dostępna jest na stronie techpolicy.press. Anna Obem Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł „Rosyjski” FaceApp nie jest groźniejszy od samego Facebooka Czy zaspokojenie ciekawości, jak możesz wyglądać za kilkadziesiąt lat, naprawdę jest warte tak dużo, by w zamian oddać dostęp do wrażliwych danych nieznanej aplikacji, do tego rosyjskiej? Maciej Kawecki z Ministerstwa Cyfryzacji przestrzega przed bezrefleksyjnym korzystaniem z usługi… 19.07.2019 Tekst Artykuł Martwisz się o zdrowie? Facebook nie pozwoli ci o tym zapomnieć Nie mów Facebookowi, jakich treści nie chcesz oglądać – to wiele nie zmieni. 07.12.2023 Tekst Artykuł Błąd w polskim tłumaczeniu DSA. Zasady dotyczące transparentności systemów rekomendacyjnych dotyczą wszystkich platform Obowiązki dotyczące transparentności algorytmów wynikające z aktu o usługach cyfrowych (DSA) odnoszą się do wszystkich platform internetowych, nie tylko tych największych. W oficjalnym tłumaczeniu aktu na język polski jest błąd. Zgłosiliśmy go do Komisji Europejskiej. [AKTUALIZACJA] 11.05.2023 Tekst