Artykuł 02.06.2017 6 min. czytania Tekst Image Portale społecznościowe stały się dla użytkowników sieci kluczowymi pośrednikami w dostępie do informacji. Warto pamiętać jednak, że obiegiem tych informacji w dużej mierze sterują dziś firmy internetowe. To one decydują o blokowaniu i filtrowaniu treści, które udostępniasz, wykorzystując stworzoną przez nie infrastrukturę. Niestety, szczegółowe kryteria i procedury, którymi w tym zakresie kierują się cyberkorporacje, są często niedostępne lub co najmniej nieprzejrzyste dla użytkowników. Trochę więcej światła na zasady moderacji treści w mediach społecznościowych rzuca niedawna publikacja dziennika „The Guardian”. Ujawnia ona wewnętrzne wytyczne stworzone dla pracowników Facebooka, dzięki którym po raz pierwszy możemy przyjrzeć się bliżej kulisom pracy moderatorów tego serwisu. Blokowanie wpisów – praktyczny poradnik Zapewne większość z nas traktuje media społecznościowe jako platformę swobodnej wymiany opinii i poglądów rozpowszechnianych w ramach korzystania z wolności słowa. Od dawna wiemy jednak, że serwisy te mogą być także zręcznym narzędziem dystrybucji treści, które są fałszywe, obraźliwe, a w skrajnych przypadkach stanowią mowę nienawiści, nawoływanie do terroryzmu czy przemocy. Dokumenty opublikowane przez Guardiana ujawniają, w jaki sposób moderatorzy Facebooka powinni reagować na zgłoszenia dotyczące tego typu treści, a także innych kontrowersyjnych publikacji zawierających nagość, pornografię czy akty autoagresji. Wytyczne te mają pomóc im w ocenie, które materiały mieszczą się jeszcze w granicach swobody wypowiedzi, a które wykraczają już poza jej ramy. W sumie „The Guardian” dotarł do ponad 100 dokumentów zawierających szczegółowe instrukcje dla moderatorów. Niektóre z nich budzą pewne wątpliwości. Wynika z nich np., że moderatorzy powinni ostrzej reagować na nawoływanie do przemocy wobec osób publicznych niż prywatnych (np. wypowiedź „Niech ktoś zastrzeli Trumpa” powinna zostać zablokowana, ale wpis „Mam nadzieję, że ktoś Cię zabije” w odniesieniu do osoby prywatnej może pozostać w serwisie). Dodatkowo, jak podaje brytyjski dziennik, moderatorzy mierzą się z niemal niewykonalnym zadaniem, mając zazwyczaj na dokonanie odpowiedniej kwalifikacji kontrowersyjnych treści (tj. np. oddzielenia znieważenia od uprawnionej satyry) jedynie… 10 sekund. Podobne decyzje sądy podejmują po wielomiesięcznych procesach. Władza w parze z odpowiedzialnością Nie chodzi jednak o to, aby odebrać portalom społecznościowym kompetencje do blokowania treści czy ustalania w tym zakresie własnych reguł. Administratorzy tych serwisów są zresztą bardzo ważnym ogniwem walki z bezprawnymi treściami w Internecie. Są w stanie najszybciej zareagować na nieuprawnione treści, a biorąc pod uwagę specyfikę rozprzestrzeniania się informacji w sieci, czas reakcji ma ogromne znaczenie w kontekście minimalizowania krzywdzących skutków takich publikacji. Co więcej, administratorzy portali są prawnie zobowiązani, aby reagować na bezprawne treści – pod groźbą poniesienia odpowiedzialności, jeśli pomimo wiedzy o naruszeniu pozostaną wobec niego bezczynni (te kwestie reguluje w Polsce ustawa o świadczeniu usług drogą elektroniczną). Jeśli jednak oddajemy portalom społecznościowym władzę nad informacją, możemy żądać, aby korzystały z niej w odpowiedzialny sposób, z poszanowaniem praw swoich użytkowników. Wymagajmy więc, aby portale te były naszymi sprzymierzeńcami w walce z bezprawnymi treściami w sieci, ale jednocześnie nie stosowały arbitralnie prywatnej cenzury. Presja sprostania tym niekiedy trudnym do pogodzenia oczekiwaniom powoduje, że błędy w moderacji (takie jak brak odpowiedniej reakcji na mowę nienawiści czy wręcz przeciwnie – niezasadne zablokowanie uprawnionego wpisu) najpewniej zawsze będą się zdarzały. Nie wyeliminują ich nawet najlepsze wytyczne ani zaangażowanie większej liczby moderatorów (obecnie według „The Guardian” FB zatrudnia ich ok. 4,5 tys.). Ryzyko i skutki błędnych decyzji może ograniczyć jednak wprowadzenie większej przejrzystości zasad funkcjonowania serwisów społecznościowych, która umożliwi poddanie ich skuteczniejszej społecznej kontroli. Mniej tajemnic, więcej przejrzystości Jak ta przejrzystość wygląda dzisiaj? Poziom szczegółowości ujawnionych przez Guardiana wytycznych istotnie różni się od tego, co możemy przeczytać w regulaminie FB i czy standardach społeczności na temat kryteriów dopuszczalności treści. Facebook nie publikuje też pełnych danych statystycznych dotyczących otrzymywanych zgłoszeń i blokowanych informacji. W tzw. raporcie przejrzystości serwis podaje jedynie dane związane z otrzymywaniem tego rodzaju żądań od instytucji publicznych poszczególnych państw. Zgłaszając daną treść do moderacji, nie wiemy też, kto, na jakich zasadach i w jakim czasie zajmie się naszym zgłoszeniem. Jeśli natomiast portal zablokował nasz wpis, nie ma jasnych reguł określających procedurę odwołania się od tej decyzji ani oczywistych środków prawnych, z których można byłoby skorzystać, aby ją zakwestionować. Ważne jest zatem zwiększenie transparentności kryteriów podejmowania decyzji o blokowaniu treści, co m.in. umożliwiłoby poddanie ich publicznej dyskusji. Równie istotne jest stworzenie odpowiednich mechanizmów proceduralnych pozwalających użytkownikom skutecznie weryfikować zasadność decyzji podjętych przez moderatorów, zarówno na drodze wewnętrznej, jak i przed niezależnym organem. Co więcej, przejrzyste zasady zarządzania treścią powinny dotyczyć nie tylko ludzkich zachowań, ale również funkcjonowania automatycznych systemów, które mogą być stosowane do identyfikacji i blokowania określonych treści. Podsumowując, dokumenty ujawnione przez „The Guardian” uświadamiają przede wszystkim, jak niewiele wiemy o zasadach zarządzania treścią w portalach społecznościowych i jak bardzo jesteśmy zdani w tym zakresie na łaskę i niełaskę firm internetowych. Jako użytkownicy tych serwisów możemy próbować to zmienić, wywierając presję bezpośrednio na cyberkorporacje, ale także na organy państwa. Te ostatnie są przecież zobligowane do ochrony praw jednostek przed ich naruszaniem przez inne podmioty prywatne, zwłaszcza gdy dotyczy to obszaru mającego tak istotny wpływ na realizację podstawowych praw i wolności, takich jak swoboda wypowiedzi czy prawo do prywatności w Internecie. Dorota Głowacka Polecamy: The Facebook Files: sex, violence and hate speech – video explainer Anna Obem Autorka Temat media społecznościowe wolność słowa Odpowiedzialność pośredników za treści w Internecie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Wybory bez dezinformacji – ruszają zapisy na warsztaty dla dziennikarek i dziennikarzy W ostatnich latach w co najmniej 18 krajach dezinformacja mogła mieć negatywny wpływ na demokratyczne procesy wyborcze. Czy problem ten może dotyczyć także zbliżających się wyborów samorządowych w Polsce? Jak do tego nie dopuścić? 20.08.2018 Tekst Artykuł ACTA 2 czy Internet dla ludzi? Przekonaj europosłów do głosowania przeciwko artykułowi 13 Już wkrótce w europarlamencie odbędzie się głosowanie nad dyrektywą, która nakaże platformom filtrowanie wszystkich treści zamieszczanych przez użytkowników. Prawa twórców powinny być chronione, ale nie kosztem wolności słowa i nie za cenę wzmocnienia roli Facebooka i Google’a jako policjantów… 07.03.2019 Tekst Artykuł Kto (i dlaczego) powinien bać się TikToka? Jeszcze niedawno TikTok budził skojarzenia przede wszystkim z niewinnymi filmikami z tańczącymi ludźmi, apetycznym jedzeniem czy uroczymi zwierzątkami. Dziś dyskusja na temat serwisu przybrała znacznie poważniejszy ton. Na blokadęograniczenia w korzystaniu z aplikacji ze względu m.in. na… 30.01.2023 Tekst