Facebook obiecuje większą przejrzystość w blokowaniu treści

Artykuł
10.01.2019
7 min. czytania
Tekst
Image

W listopadzie razem z ponad 70 organizacjami z całego świata pisaliśmy do Marka Zuckerberga w sprawie wzmocnienia uprawnień użytkowników, którzy zostali zablokowani na Facebooku. Portal często usuwa treści w nieprzejrzysty i mocno arbitralny sposób, a użytkownicy nie mają realnej możliwości, aby takie decyzje skutecznie podważyć. Dziś publikujemy odpowiedź FB.

Nie chodzi o FB, ale o wolność słowa

Facebook może usuwać konta użytkowników lub dodawane przez nich treści m.in., gdy uzna, że naruszono jego wewnętrzne regulacje (w szczególności tzw. Standardy społeczności). W praktyce decyzje te są często podejmowane w mało przejrzysty sposób – w regulaminie czytamy, że o blokadzie FB poinformuje użytkownika „w stosownych przypadkach”, nie ma jednak obowiązku uzasadniania swoich decyzji, a procedura odwoławcza nie daje realnej szansy, żeby je skutecznie zakwestionować (gdy użytkownik nie zgadza się z dokonaną przez portal oceną treści). Wszystko to sprzyja pomyłkom oraz nadmiarowemu blokowaniu legalnych i często społecznie pożytecznych materiałów.

Blokada konta to kłopot, jeśli Facebook jest dla Ciebie ważnym źródłem pozyskiwania informacji, kanałem komunikowania się z ludźmi, istotnym narzędziem wykorzystywanym w działalności zawodowej albo społecznej lub po prostu przestrzenią ekspresji poglądów i opinii, którymi chcesz się dzielić z innymi. Nie korzystasz z Facebooka albo nie jest on dla Ciebie istotny? Nie chroni Cię to przed prywatną cenzurą. Problem nie dotyczy tylko FB, ale także wielu innych platform internetowych, które w praktyce przejęły dziś kontrolę nad znaczącą częścią obiegu informacji w sieci. Stawką w tej grze nie jest wpłynięcie na konkretną firmę, ale współczesna wolność słowa. Możemy o nią zadbać, sprzeciwiając się temu, żeby to prywatne firmy zupełnie dowolnie, bez żadnej kontroli społecznej decydowały o tym, co możemy przeczytać albo zobaczyć w Internecie.

Dążymy więc do tego, żeby ucywilizować zarządzanie treścią użytkowników przez platformy internetowe, zaczynając od jednej z największych. Jak? Nasze postulaty zawarliśmy w liście, który w listopadzie wysłaliśmy do szefa Facebooka. Przygotowały go 4 organizacje zajmujące się m.in. prawami cyfrowymi i swobodą wypowiedzi: Article 19, Electronic Frontier Foundation, Center for Democracy and Technology i Ranking Digital Rights. W skrócie: domagamy się w nim bardziej przejrzystych procedur blokowania i wprowadzenia skutecznego procesu odwoławczego. Docelowo uważamy też, że powinna istnieć możliwość odwołania się od decyzji portalu do sądu.

Facebook odpowiada

W odpowiedzi na list organizacji przedstawiciel Facebooka podsumował działania podjęte przez firmę w ostatnich miesiącach, które mają doprowadzić do zmniejszenia arbitralności blokowania treści przez serwis i ograniczyć ryzyko błędów. Zwrócono uwagę m.in. na to, że FB wprowadził w ostatnich miesiącach możliwość „odwołania się” od decyzji o usunięciu poszczególnych postów w większości kategorii niedopuszczalnych treści (wcześniej można było odwołać się jedynie od blokady całego profilu lub strony). Podobno portal stara się też podawać więcej informacji o powodach zablokowania treści i wskazywać precyzyjnie kwestionowany materiał (wcześniej często kończyło się na ogólnej formułce „naruszenia Standardów społeczności”, na podstawie której ciężko było zorientować się, w jaki sposób użytkownik w ogóle zawinił). Nie dowiemy się jednak, kto w konkretnym przypadku zażądał usunięcia dodanego przez nas materiału (tj. czy treść została wyłapana przez własne mechanizmy Facebooka, zgłoszona do moderacji przez osobę prywatną czy może organ publiczny). Ta informacja jest dość istotna z punktu widzenia transparentności blokowania, ale FB uznaje, że mogłaby naruszyć zasadę poufności zgłoszeń. Argument ten nie do końca przekonuje, biorąc pod uwagę, że nie chodziłoby o ujawnianie danych konkretnej osoby, a jedynie ogólną informacje o źródle zgłoszenia.

Facebook opisał także swoje wysiłki na rzecz zwiększenia ogólnej transparentności blokowania treści na podstawie Standardów społeczności poprzez publikowanie zbiorczych danych na ten temat (wcześniej tzw. Raport przejrzystości Facebooka uwzględniał jedynie dane obejmujące usuwanie treści na żądanie organów państwa). W kwietniu i listopadzie 2018 r. firma wydała specjalne raporty (Community Standards Enforcement Report), w których możemy znaleźć m.in. statystyki pokazujące skalę treści naruszających obowiązujące w serwisie zasady dotyczące fałszywych kont i zakazanych treści obejmujących: nagość, czynności seksualne, mowę nienawiści, spam, propagandę terrorystyczną, przemoc i nękanie czy wykorzystywanie seksualne dzieci. Dowiemy się z niego m.in., jak powszechne były takie treści na FB, ile ich zablokowano w poszczególnych kategoriach oraz ile z nich z nich zostało zidentyfikowanych za pomocą „proaktywnych” mechanizmów stosowanych przez firmę (tj. ile Facebook namierzył i usunął, zanim zostały przez kogokolwiek zgłoszone do moderacji). Wszystko to ma rzucić więcej światła na logikę i mechanizmy podejmowania decyzji przez portal. W raporcie brakuje jednak kilku ważnych informacji. Nie dowiemy się z niego, jaki odsetek błędów popełniono przy ocenie charakteru treści, ile złożono odwołań od decyzji o usunięciu oraz ile treści zostało ostatecznie przywróconych. Firma obiecuje jednocześnie, że w przyszłości uzupełni te dane.

Facebook zapowiedział też dalsze zmiany, m.in. mechanizm odwołania dla osób zgłaszających niedopuszczalne materiały, na których zgłoszenia portal nie zareagował, a także plany utworzenia… „niezależnego organu”, który będzie rozpatrywał spory dotyczące treści. Jak miałby działać taki organ, kto miałby w nim zasiadać oraz jak wyglądałyby jego gwarancje niezależności – tych szczegółów na razie nie zdradzono.

Co dalej?

Przedstawione zmiany (wdrożone bądź zapowiedziane przez firmę) nie realizują jeszcze w pełni postulatów przedstawionych w liście organizacji. Wolelibyśmy też, żeby zostały wprowadzone nie tylko na poziomie praktyki, ale w sposób bardziej czytelny dla użytkowników, czyli w regulaminie. Niewątpliwie jednak zrobiono kilka kroków w dobrą stronę. Dowodzą one jednocześnie, że presja społeczeństwa obywatelskiego, które walczy o nasze prawa cyfrowe, ma sens. Będziemy dalej śledzić ten proces, ale jednocześnie planujemy już kolejne działania na rzecz przeciwdziałania prywatnej cenzurze w sieci.

Dorota Głowacka

Czytaj także:

Moderacja Facebooka bez cenzury

Kto czyści dla nas Internet (i dlaczego nadal jest tak brudno)?

Od niemal 10 lat Fundacja Panoptykon walczy o wolność w sieci. Wesprzyj nas w tej walce!

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.