Artykuł 10.01.2019 7 min. czytania Tekst Image W listopadzie razem z ponad 70 organizacjami z całego świata pisaliśmy do Marka Zuckerberga w sprawie wzmocnienia uprawnień użytkowników, którzy zostali zablokowani na Facebooku. Portal często usuwa treści w nieprzejrzysty i mocno arbitralny sposób, a użytkownicy nie mają realnej możliwości, aby takie decyzje skutecznie podważyć. Dziś publikujemy odpowiedź FB. Nie chodzi o FB, ale o wolność słowa Facebook może usuwać konta użytkowników lub dodawane przez nich treści m.in., gdy uzna, że naruszono jego wewnętrzne regulacje (w szczególności tzw. Standardy społeczności). W praktyce decyzje te są często podejmowane w mało przejrzysty sposób – w regulaminie czytamy, że o blokadzie FB poinformuje użytkownika „w stosownych przypadkach”, nie ma jednak obowiązku uzasadniania swoich decyzji, a procedura odwoławcza nie daje realnej szansy, żeby je skutecznie zakwestionować (gdy użytkownik nie zgadza się z dokonaną przez portal oceną treści). Wszystko to sprzyja pomyłkom oraz nadmiarowemu blokowaniu legalnych i często społecznie pożytecznych materiałów. Blokada konta to kłopot, jeśli Facebook jest dla Ciebie ważnym źródłem pozyskiwania informacji, kanałem komunikowania się z ludźmi, istotnym narzędziem wykorzystywanym w działalności zawodowej albo społecznej lub po prostu przestrzenią ekspresji poglądów i opinii, którymi chcesz się dzielić z innymi. Nie korzystasz z Facebooka albo nie jest on dla Ciebie istotny? Nie chroni Cię to przed prywatną cenzurą. Problem nie dotyczy tylko FB, ale także wielu innych platform internetowych, które w praktyce przejęły dziś kontrolę nad znaczącą częścią obiegu informacji w sieci. Stawką w tej grze nie jest wpłynięcie na konkretną firmę, ale współczesna wolność słowa. Możemy o nią zadbać, sprzeciwiając się temu, żeby to prywatne firmy zupełnie dowolnie, bez żadnej kontroli społecznej decydowały o tym, co możemy przeczytać albo zobaczyć w Internecie. Dążymy więc do tego, żeby ucywilizować zarządzanie treścią użytkowników przez platformy internetowe, zaczynając od jednej z największych. Jak? Nasze postulaty zawarliśmy w liście, który w listopadzie wysłaliśmy do szefa Facebooka. Przygotowały go 4 organizacje zajmujące się m.in. prawami cyfrowymi i swobodą wypowiedzi: Article 19, Electronic Frontier Foundation, Center for Democracy and Technology i Ranking Digital Rights. W skrócie: domagamy się w nim bardziej przejrzystych procedur blokowania i wprowadzenia skutecznego procesu odwoławczego. Docelowo uważamy też, że powinna istnieć możliwość odwołania się od decyzji portalu do sądu. Facebook odpowiada W odpowiedzi na list organizacji przedstawiciel Facebooka podsumował działania podjęte przez firmę w ostatnich miesiącach, które mają doprowadzić do zmniejszenia arbitralności blokowania treści przez serwis i ograniczyć ryzyko błędów. Zwrócono uwagę m.in. na to, że FB wprowadził w ostatnich miesiącach możliwość „odwołania się” od decyzji o usunięciu poszczególnych postów w większości kategorii niedopuszczalnych treści (wcześniej można było odwołać się jedynie od blokady całego profilu lub strony). Podobno portal stara się też podawać więcej informacji o powodach zablokowania treści i wskazywać precyzyjnie kwestionowany materiał (wcześniej często kończyło się na ogólnej formułce „naruszenia Standardów społeczności”, na podstawie której ciężko było zorientować się, w jaki sposób użytkownik w ogóle zawinił). Nie dowiemy się jednak, kto w konkretnym przypadku zażądał usunięcia dodanego przez nas materiału (tj. czy treść została wyłapana przez własne mechanizmy Facebooka, zgłoszona do moderacji przez osobę prywatną czy może organ publiczny). Ta informacja jest dość istotna z punktu widzenia transparentności blokowania, ale FB uznaje, że mogłaby naruszyć zasadę poufności zgłoszeń. Argument ten nie do końca przekonuje, biorąc pod uwagę, że nie chodziłoby o ujawnianie danych konkretnej osoby, a jedynie ogólną informacje o źródle zgłoszenia. Facebook opisał także swoje wysiłki na rzecz zwiększenia ogólnej transparentności blokowania treści na podstawie Standardów społeczności poprzez publikowanie zbiorczych danych na ten temat (wcześniej tzw. Raport przejrzystości Facebooka uwzględniał jedynie dane obejmujące usuwanie treści na żądanie organów państwa). W kwietniu i listopadzie 2018 r. firma wydała specjalne raporty (Community Standards Enforcement Report), w których możemy znaleźć m.in. statystyki pokazujące skalę treści naruszających obowiązujące w serwisie zasady dotyczące fałszywych kont i zakazanych treści obejmujących: nagość, czynności seksualne, mowę nienawiści, spam, propagandę terrorystyczną, przemoc i nękanie czy wykorzystywanie seksualne dzieci. Dowiemy się z niego m.in., jak powszechne były takie treści na FB, ile ich zablokowano w poszczególnych kategoriach oraz ile z nich z nich zostało zidentyfikowanych za pomocą „proaktywnych” mechanizmów stosowanych przez firmę (tj. ile Facebook namierzył i usunął, zanim zostały przez kogokolwiek zgłoszone do moderacji). Wszystko to ma rzucić więcej światła na logikę i mechanizmy podejmowania decyzji przez portal. W raporcie brakuje jednak kilku ważnych informacji. Nie dowiemy się z niego, jaki odsetek błędów popełniono przy ocenie charakteru treści, ile złożono odwołań od decyzji o usunięciu oraz ile treści zostało ostatecznie przywróconych. Firma obiecuje jednocześnie, że w przyszłości uzupełni te dane. Facebook zapowiedział też dalsze zmiany, m.in. mechanizm odwołania dla osób zgłaszających niedopuszczalne materiały, na których zgłoszenia portal nie zareagował, a także plany utworzenia… „niezależnego organu”, który będzie rozpatrywał spory dotyczące treści. Jak miałby działać taki organ, kto miałby w nim zasiadać oraz jak wyglądałyby jego gwarancje niezależności – tych szczegółów na razie nie zdradzono. Co dalej? Przedstawione zmiany (wdrożone bądź zapowiedziane przez firmę) nie realizują jeszcze w pełni postulatów przedstawionych w liście organizacji. Wolelibyśmy też, żeby zostały wprowadzone nie tylko na poziomie praktyki, ale w sposób bardziej czytelny dla użytkowników, czyli w regulaminie. Niewątpliwie jednak zrobiono kilka kroków w dobrą stronę. Dowodzą one jednocześnie, że presja społeczeństwa obywatelskiego, które walczy o nasze prawa cyfrowe, ma sens. Będziemy dalej śledzić ten proces, ale jednocześnie planujemy już kolejne działania na rzecz przeciwdziałania prywatnej cenzurze w sieci. Dorota Głowacka Czytaj także: Moderacja Facebooka bez cenzury Kto czyści dla nas Internet (i dlaczego nadal jest tak brudno)? Od niemal 10 lat Fundacja Panoptykon walczy o wolność w sieci. Wesprzyj nas w tej walce! Dorota Głowacka Autorka Temat media społecznościowe wolność słowa Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Miękkie prawo czy wytrych do samowoli służb? Facebook, Twitter i inne portale będą musiały w ciągu godziny rozpatrzyć zgłoszenie służb dotyczące treści terrorystycznych. Czy będą miały realne szanse na rzetelną ocenę sytuacji? A może nowe rekomendacje Komisji Europejskiej zmierzają do konieczności usuwania z automatu każdej treści zgłoszonej… 07.03.2018 Tekst Artykuł „Scrolluj więcej, śpij mniej”. Platforma social media od Fundacji Panoptykon „Nasz algorytm cię pochłonie”, „Z nami nigdy nie zaśniesz” – tak reklamuje się Vlop!, nowa platforma social media, wyświetlająca się na ciężarówce rodem z netflixowego Black Mirror. 29.08.2023 Tekst Artykuł Zapraszamy rząd na niezależne media społecznościowe Dostęp do informacji publicznej i możliwość udziału w debacie publicznej nie mogą być uzależnione od zgody na regulamin zamkniętej usługi konkretnej firmy. Czas, by instytucje i osoby publiczne wzięły sobie to do serca i rozważyły publikowanie w zdecentralizowanym Fediwersie. 06.02.2024 Tekst