Artykuł 02.06.2017 6 min. czytania Tekst Image Portale społecznościowe stały się dla użytkowników sieci kluczowymi pośrednikami w dostępie do informacji. Warto pamiętać jednak, że obiegiem tych informacji w dużej mierze sterują dziś firmy internetowe. To one decydują o blokowaniu i filtrowaniu treści, które udostępniasz, wykorzystując stworzoną przez nie infrastrukturę. Niestety, szczegółowe kryteria i procedury, którymi w tym zakresie kierują się cyberkorporacje, są często niedostępne lub co najmniej nieprzejrzyste dla użytkowników. Trochę więcej światła na zasady moderacji treści w mediach społecznościowych rzuca niedawna publikacja dziennika „The Guardian”. Ujawnia ona wewnętrzne wytyczne stworzone dla pracowników Facebooka, dzięki którym po raz pierwszy możemy przyjrzeć się bliżej kulisom pracy moderatorów tego serwisu. Blokowanie wpisów – praktyczny poradnik Zapewne większość z nas traktuje media społecznościowe jako platformę swobodnej wymiany opinii i poglądów rozpowszechnianych w ramach korzystania z wolności słowa. Od dawna wiemy jednak, że serwisy te mogą być także zręcznym narzędziem dystrybucji treści, które są fałszywe, obraźliwe, a w skrajnych przypadkach stanowią mowę nienawiści, nawoływanie do terroryzmu czy przemocy. Dokumenty opublikowane przez Guardiana ujawniają, w jaki sposób moderatorzy Facebooka powinni reagować na zgłoszenia dotyczące tego typu treści, a także innych kontrowersyjnych publikacji zawierających nagość, pornografię czy akty autoagresji. Wytyczne te mają pomóc im w ocenie, które materiały mieszczą się jeszcze w granicach swobody wypowiedzi, a które wykraczają już poza jej ramy. W sumie „The Guardian” dotarł do ponad 100 dokumentów zawierających szczegółowe instrukcje dla moderatorów. Niektóre z nich budzą pewne wątpliwości. Wynika z nich np., że moderatorzy powinni ostrzej reagować na nawoływanie do przemocy wobec osób publicznych niż prywatnych (np. wypowiedź „Niech ktoś zastrzeli Trumpa” powinna zostać zablokowana, ale wpis „Mam nadzieję, że ktoś Cię zabije” w odniesieniu do osoby prywatnej może pozostać w serwisie). Dodatkowo, jak podaje brytyjski dziennik, moderatorzy mierzą się z niemal niewykonalnym zadaniem, mając zazwyczaj na dokonanie odpowiedniej kwalifikacji kontrowersyjnych treści (tj. np. oddzielenia znieważenia od uprawnionej satyry) jedynie… 10 sekund. Podobne decyzje sądy podejmują po wielomiesięcznych procesach. Władza w parze z odpowiedzialnością Nie chodzi jednak o to, aby odebrać portalom społecznościowym kompetencje do blokowania treści czy ustalania w tym zakresie własnych reguł. Administratorzy tych serwisów są zresztą bardzo ważnym ogniwem walki z bezprawnymi treściami w Internecie. Są w stanie najszybciej zareagować na nieuprawnione treści, a biorąc pod uwagę specyfikę rozprzestrzeniania się informacji w sieci, czas reakcji ma ogromne znaczenie w kontekście minimalizowania krzywdzących skutków takich publikacji. Co więcej, administratorzy portali są prawnie zobowiązani, aby reagować na bezprawne treści – pod groźbą poniesienia odpowiedzialności, jeśli pomimo wiedzy o naruszeniu pozostaną wobec niego bezczynni (te kwestie reguluje w Polsce ustawa o świadczeniu usług drogą elektroniczną). Jeśli jednak oddajemy portalom społecznościowym władzę nad informacją, możemy żądać, aby korzystały z niej w odpowiedzialny sposób, z poszanowaniem praw swoich użytkowników. Wymagajmy więc, aby portale te były naszymi sprzymierzeńcami w walce z bezprawnymi treściami w sieci, ale jednocześnie nie stosowały arbitralnie prywatnej cenzury. Presja sprostania tym niekiedy trudnym do pogodzenia oczekiwaniom powoduje, że błędy w moderacji (takie jak brak odpowiedniej reakcji na mowę nienawiści czy wręcz przeciwnie – niezasadne zablokowanie uprawnionego wpisu) najpewniej zawsze będą się zdarzały. Nie wyeliminują ich nawet najlepsze wytyczne ani zaangażowanie większej liczby moderatorów (obecnie według „The Guardian” FB zatrudnia ich ok. 4,5 tys.). Ryzyko i skutki błędnych decyzji może ograniczyć jednak wprowadzenie większej przejrzystości zasad funkcjonowania serwisów społecznościowych, która umożliwi poddanie ich skuteczniejszej społecznej kontroli. Mniej tajemnic, więcej przejrzystości Jak ta przejrzystość wygląda dzisiaj? Poziom szczegółowości ujawnionych przez Guardiana wytycznych istotnie różni się od tego, co możemy przeczytać w regulaminie FB i czy standardach społeczności na temat kryteriów dopuszczalności treści. Facebook nie publikuje też pełnych danych statystycznych dotyczących otrzymywanych zgłoszeń i blokowanych informacji. W tzw. raporcie przejrzystości serwis podaje jedynie dane związane z otrzymywaniem tego rodzaju żądań od instytucji publicznych poszczególnych państw. Zgłaszając daną treść do moderacji, nie wiemy też, kto, na jakich zasadach i w jakim czasie zajmie się naszym zgłoszeniem. Jeśli natomiast portal zablokował nasz wpis, nie ma jasnych reguł określających procedurę odwołania się od tej decyzji ani oczywistych środków prawnych, z których można byłoby skorzystać, aby ją zakwestionować. Ważne jest zatem zwiększenie transparentności kryteriów podejmowania decyzji o blokowaniu treści, co m.in. umożliwiłoby poddanie ich publicznej dyskusji. Równie istotne jest stworzenie odpowiednich mechanizmów proceduralnych pozwalających użytkownikom skutecznie weryfikować zasadność decyzji podjętych przez moderatorów, zarówno na drodze wewnętrznej, jak i przed niezależnym organem. Co więcej, przejrzyste zasady zarządzania treścią powinny dotyczyć nie tylko ludzkich zachowań, ale również funkcjonowania automatycznych systemów, które mogą być stosowane do identyfikacji i blokowania określonych treści. Podsumowując, dokumenty ujawnione przez „The Guardian” uświadamiają przede wszystkim, jak niewiele wiemy o zasadach zarządzania treścią w portalach społecznościowych i jak bardzo jesteśmy zdani w tym zakresie na łaskę i niełaskę firm internetowych. Jako użytkownicy tych serwisów możemy próbować to zmienić, wywierając presję bezpośrednio na cyberkorporacje, ale także na organy państwa. Te ostatnie są przecież zobligowane do ochrony praw jednostek przed ich naruszaniem przez inne podmioty prywatne, zwłaszcza gdy dotyczy to obszaru mającego tak istotny wpływ na realizację podstawowych praw i wolności, takich jak swoboda wypowiedzi czy prawo do prywatności w Internecie. Dorota Głowacka Polecamy: The Facebook Files: sex, violence and hate speech – video explainer Anna Obem Autorka Temat media społecznościowe wolność słowa Odpowiedzialność pośredników za treści w Internecie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Poradnik Zablokowali ci konto na Facebooku? Zobacz, co możesz zrobić Nie zna życia, kto nigdy nie doświadczył blokady na portalu społecznościowym. Największe firmy czasami blokują za konkretne przewinienia, a czasami... automatycznie i bez uzasadnienia. Już niedługo dostaniesz nowe możliwości. 18.07.2023 Tekst Artykuł Mleko się wylało. Unia chce odebrać władzę GAFA Facebook, Google czy Amazon nadal mogłyby korzystać z wiedzy o ludziach, jaką zgromadziły, ale za cenę podzielenia się nią z konkurencją. Brzmi radykalnie? O to chodzi. 26.10.2020 Tekst Podcast Wolność bywa niebezpieczna. Rozmowa z Piotrem Godziszem Nie ma nic złego, że chcemy czuć się bezpiecznie – także w sieci. Niepokojące są jednak poszukiwania recepty na to bezpieczeństwo w świecie pełnym różnic. Czy możliwy jest świat, w którym wszyscy czują się bezpiecznie i nikt nie jest wykluczony? Czy też żeby czuć się bezpiecznie, musimy zamknąć się… 24.10.2019 Dźwięk