Artykuł 15.11.2018 5 min. czytania Tekst Image Tytuł Dlaczego Facebook mnie zablokował? Trzy postulaty Tytuł Dlaczego Facebook mnie zablokował? Trzy postulaty Każdy, komu Facebook choć raz usunął konto albo post, wie, że nie jest łatwo skutecznie zakwestionować taką blokadę. Razem z ponad 70 organizacjami apelujemy w liście do Marka Zuckerberga o wprowadzenie przejrzystych zasad moderowania treści i skutecznych procedur odwoławczych dla użytkowników. Arbitralność działania firm internetowych w tym zakresie uważamy za jedno ze współczesnych zagrożeń dla swobody wypowiedzi. Dlaczego Facebook mnie zablokował? Jak pisaliśmy w tekście Kto czyści dla nas Internet (i dlaczego nadal jest tak brudno?), z FB znika to, co narusza Standardy społeczności, a więc m.in. treści propagujące nienawiść, zachęcające do przemocy, znieważające, drastyczne. Jednak ofiarą prywatnej cenzury padają też zdjęcia z reportaży wojennych, materiały dokumentujące brutalność policji i inne naruszenia praw człowieka czy relacje z protestów społecznych, ale też lżejsze treści, takie jak zdjęcia modelki plus size czy klasycznych dzieł artystów (Rubensa, Courbeta) portretujących nagie kobiety. Nie do końca wiadomo, dlaczego, według jakich kryteriów i zasad FB usuwa treści zamieszczane przez użytkowników. Brak przejrzystości tego procesu prowokuje z kolei zarzuty wobec firmy, że ta, podejmując decyzje, kieruje się określonymi sympatiami politycznymi czy światopoglądowymi, co zagraża pluralizmowi debaty publicznej prowadzonej w serwisie. Nie chcemy takiego Facebooka, ponieważ wiemy już, że dziś to coś więcej niż usługa w sieci. To ważny kanał komunikacji międzyludzkiej, forum, na którym możemy wyrażać opinie i poglądy, oraz źródło, z którego pozyskujemy informacje. Jeśli firma ma tak istotny wpływ na to, jak współcześnie korzystamy z wolności słowa i innych praw człowieka, powinniśmy wymagać, aby je respektowała, i móc ją z tego rozliczyć. Więcej przejrzystości i społecznej kontroli nad procesem usuwania treści przez FB (i inne platformy) to ważny krok w tym kierunku. Docelowo chcielibyśmy, żeby decyzje te były poddane także zewnętrznej, niezależnej kontroli sądu. Trzy postulaty W liście do Marka Zuckerberga, który opracowały organizacje Article 19, Electronic Frontier Foundation, Center for Democracy and Technology i Ranking Digital Rights, sformułowano trzy główne postulaty. Domagamy się: 1) uzasadniania przez FB decyzji o zablokowaniu treści informacja, którą otrzymuje użytkownik o zablokowaniu postu czy konta, powinna zawierać wskazanie odpowiedniego punktu Standardów społeczności, który zdaniem firmy został naruszony; informacja taka powinna ponadto szczegółowo wskazywać zakwestionowaną treść oraz to, w jaki sposób została zidentyfikowana i poddane ocenie; użytkownik powinien otrzymać jednocześnie jasną informację na temat możliwości złożenia odwołania; 2) skutecznej procedury odwoławczej procedura odwoławcza powinna być łatwo dostępna i łatwa w użyciu; odwołanie powinno być rozpatrywane przez osoby, które nie były zaangażowane w podjęcie pierwotnej decyzji o zablokowaniu treści; zablokowany użytkownik powinien mieć możliwość, żeby przedstawić argumenty i dowody na swoją obronę, które zostaną uwzględnione w procedurze odwoławczej; odwołanie powinno być w miarę możliwości szybko rozpatrzone, a ostateczna decyzja zakomunikowana użytkownikowi; jakiekolwiek wyjątki od stosowania tak skonstruowanej procedury odwoławczej powinny być jasno określone i zgodne ze standardami praw człowieka; FB, we współpracy z innymi zainteresowanymi podmiotami, powinien stworzyć niezależne mechanizmy samoregulacyjne, które zagwarantują większą rozliczalność portali społecznościowych; 3) publikacji statystyk dotyczących blokowania na podstawie Standardów społeczności w ramach raportu przejrzystości FB powinien publikować szczegółowe informacje na temat kategorii treści podlegających restrykcjom (tekst, zdjęcie lub wideo, przemoc, nagość, naruszenia praw autorskich etc.) wraz ze statystykami dotyczącymi usuwanych treści w każdej ze wskazanych kategorii; publikowane informacje powinny obejmować także dane na temat liczby blokad zainicjowanych odpowiednio przez zgłoszenie innego użytkownika, „zaufanego zgłaszającego” (trusted flagger) czy nałożonych w wyniku korzystania z proaktywnych środków, takich jak automatyczne filtry; statystyki powinny uwzględniać liczbę pozytywnie rozpoznanych odwołań i innych sytuacji, w których niesłusznie doszło do zablokowania treści; wreszcie FB powinien informować o istniejących mechanizmach nadzoru nad decyzjami, od których nie złożono odwołania, i w przejrzysty sposób monitorować poziom popełnianych błędów w moderacji. Dorota Głowacka Polecamy: Panoptykon: SIN versus Facebook Dorota Głowacka Autorka Temat media społecznościowe wolność słowa Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Bez pozasądowych organów nie wygramy z „prywatną cenzurą” w mediach społecznościowych W połowie marca Ministerstwo Cyfryzacji przedstawiło projekt ustawy wdrażającej akt o usługach cyfrowych (AUC) w Polsce. Brakuje w nim jednak rozwiązań dotyczących „pozasądowych organów rozstrzygania sporów”. Bez nich w praktyce trudno będzie osiągnąć jeden z celów nowej regulacji, tj. 16.04.2024 Tekst Artykuł Polski rząd krytycznie o projekcie rozporządzenia UE dotyczącego blokowania treści o charakterze terrorystycznym Ministerstwo Cyfryzacji udostępniło nam stanowisko polskiego rządu na temat projektu unijnego rozporządzenia ws. zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym. 21.12.2018 Tekst Podcast Jeszcze uwodzenie czy już wykorzystanie? O mediach społecznościowych. Rozmowa z Magdaleną Bigaj Dziś w podcaście gości Magdalena Bigaj, współautorka badań nad higieną cyfrową, założycielka i prezeska Instytutu Cyfrowego Obywatelstwa, autorka książki Wychowanie przy ekranie. Jak przygotować dzieci do życia w sieci? W rozmowie z Katarzyną Szymielewicz mówi o teście higieny cyfrowej i… 06.04.2023 Dźwięk