SIN vs Facebook

Platformy internetowe takie jak Facebook, YouTube czy Twitter w coraz większym stopniu kontrolują to, co możesz zobaczyć i powiedzieć w sieci. Algorytmy śledzą aktywność użytkowników, a filtry i moderatorzy reagują na naruszenia regulaminów. Robią to po to, żeby walczyć ze szkodliwym treściami – takimi jak hejt czy nawoływanie do przemocy. Zdarza się jednak, że usuwane są legalne i pożyteczne materiały, np. zdjęcia z reportaży wojennych , fotografie historyczne, publikacje dokumentujące brutalność policji i inne naruszenia praw człowieka, relacje z protestów społecznych, dzieła sztuki czy satyra.

Takie nieuzasadnione, nadmierne usuwanie treści na podstawie wewnętrznych regulacji platform nazywane jest prywatną cenzurą. Jest ona szczególnie groźna w dobie dominacji kilku firm o globalnym zasięgu, które przejmują rolę głównych kanałów komunikacji i pozyskiwania informacji.

Blokada na takiej platformie oznacza w praktyce istotne ograniczenie zasięgu publikowanych materiałów. W efekcie te prywatne firmy mają potężną władzę nad obiegiem informacji i poglądami wyrażanymi w sieci. Często korzystają z niej bez żadnej kontroli i odpowiedzialności.

Prywatnej cenzurze sprzyja brak przejrzystych zasad moderacji treści przez platformy oraz brak skutecznych procedur odwoławczych dla zablokowanych użytkowników. W tej sytuacji trudno jest zakwestionować podjętą przez platformę decyzję o usunięciu danego materiału czy całego konta.

Czas to zmienić! W sprawie SIN vs Facebook walczymy o ochronę praw osób, których wolność słowa została niesłusznie ograniczona poprzez arbitralną blokadę nałożoną przez platformy internetowe.

Podziel się na FB Podziel się na Twitterze

SIN vs FACEBOOK

Społeczna Inicjatywa Narkopolityki (SIN) to organizacja pozarządowa, która od lat zajmuje się promowaniem wiedzy o szkodliwym działaniu środków psychoaktywnych oraz pomaganiem osobom, które zażywają takie substancje. Jej celem jest m.in. ograniczenie szkód powodowanych przez konsumpcję używek.

W 2018 r. Facebook bez ostrzeżenia i przejrzystych wyjaśnień usunął strony i grupy SIN, uznając je za „niezgodne ze Standardami społeczności”.

W styczniu 2019 r. na podobnych zasadach usunięto jedno z kont organizacji na (należącym do Facebooka) Instagramie.

7 maja 2019 r. SIN, wspierana przez Fundację Panoptykon, złożyła w sądzie pozew, w którym zażądała od Facebooka publicznych przeprosin oraz przywrócenia dostępu do usuniętych stron i kont.

Kulisy sprawy

SIN od 2011 r. prowadziła stronę na Facebooku, na której m.in. ostrzegała przed niebezpieczeństwami związanymi z zażywaniem substancji odurzających. W 2018 r. działalność SIN na portalu zaczęła nagle budzić zastrzeżenia moderatorów (albo jego algorytmów): najpierw usunięto jedną z grup, a następnie całą stronę organizacji, obserwowaną przez 16 tys. osób. Próba odwołania się od decyzji poprzez mechanizm oferowany przez Facebooka nie przyniosła rezultatu. Członkowie SIN do tej pory nie wiedzą, które z publikowanych przez nich materiałów i z jakiego powodu Facebook uznał za naruszenie Standardów społeczności.

Głównymi odbiorcami działań SIN są osoby młode, szczególnie narażone na eksperymentowanie ze środkami odurzającymi, aktywne na portalach społecznościowych. Facebook stanowił podstawowy kanał komunikacji SIN, poprzez który organizacja promowała swoje działania i misję, kontaktowała się wolontariuszami i zdobywała fundusze.

To na Facebooku do organizacji zwracały się z prośbą o pomoc osoby zażywające substancje psychoaktywne. Instagram pomagał SIN docierać do młodszych użytkowników. Usunięcie stron, grup i kont znacznie utrudniło organizacji realizację działań edukacyjnych i innych zadań statutowych oraz ograniczyło zasięg publikowanych informacji i możliwość komunikacji z odbiorcami.

Z uwagi na strategiczną rolę Facebooka w działalności SIN pod koniec 2018 r. organizacja postanowiła założyć nową stronę w serwisie. Mimo że nie zmieniła ani charakteru swoich działań, ani sposobu komunikacji, strona nie została do tej pory usunięta. SIN musi jednak od początku budować wokół niej społeczność użytkowników zainteresowanych misją organizacji (na razie strona zgromadziła 10% obserwujących w stosunku do usuniętej grupy). Nie znając przyczyn poprzednich blokad, stowarzyszenie działa obecnie w poczuciu niepewności i z obawą, że kolejna strona w każdej chwili ponownie może zostać arbitralnie, bez ostrzeżenia zamknięta.

Pytania i odpowiedzi

Część I. Więcej o sprawie SIN vs Facebook

 Co dokładnie chcecie osiągnąć, pozywając Facebooka?
Historia SIN dobrze pokazuje zagrożenia, jakie powoduje prywatna cenzura w Internecie. W procesie SIN vs Facebook walczymy o uznanie przez sąd, że nieprzejrzyste i arbitralne działanie portalu doprowadziło do nieuzasadnionego naruszenia praw tego stowarzyszenia. Chcemy, by sprawa przyczyniła się do tego, że:
  • decyzje platform internetowych o usuwaniu treści będą zapadały w bardziej przejrzysty sposób (m.in. tak, żeby zablokowany użytkownik wiedział, jakie dokładnie materiały zostały uznane za naruszające regulamin i dlaczego);
  • blokady nakładane przez platformy będą miały proporcjonalny charakter (platformy powinny usuwać szkodliwe treści, ale reakcją na zamieszczenie np. jednego wpisu, który jest nadużyciem, nie powinno być – poza skrajnymi sytuacjami – usunięcie całej strony czy konta);
  • zablokowani użytkownicy będą mogli skuteczniej kwestionować decyzje o usunięciu treści, jeśli uznają je za niesłuszne czy nieuzasadnione. Chcemy, żeby platformy internetowe stworzyły możliwość skutecznego odwołania od swoich decyzji (czyli m.in. wprowadziły procedurę umożliwiającą przedstawienie zablokowanemu użytkownikowi własnej argumentacji) i żeby uzasadniały podejmowane decyzje. Dodatkowo od ostatecznych decyzji platform powinna istnieć możliwość odwołania się do sądu.

Więcej o naszych długofalowych celach znajdziesz dowiesz się w sekcji: Co musi się zmienić, żeby ograniczone zostały zagrożenia wynikające z prywatnej cenzury?

 Dlaczego zdecydowaliście się akurat na sprawę w sądzie, żeby osiągnąć te cele?
  • Korzystny wyrok może przetrzeć szlak innym osobom, które uważają, że zostały niesprawiedliwie zablokowane przez platformy internetowe, i ułatwić im dochodzenie swoich praw w kolejnych, podobnych procesach.
  • Sprawa może przyczynić się do wprowadzenia zmian w praktyce działania platform internetowych (więcej w sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury?) oraz zmian prawnych. Wykorzystanie spraw sądowych jako narzędzia walki o zmiany systemowe, których celem jest np. podniesienie standardów ochrony praw człowieka, nazywamy litygacją strategiczną. Jest to instrument, którym od lat posługuje się wiele organizacji społecznych, walcząc m.in. o prawa człowieka w kontekście nowoczesnych technologii, np.:
    • Digital Rights Ireland doprowadziła do unieważnienia przez Trybunał Sprawiedliwości Unii Europejskiej unijnej dyrektywy o tzw. retencji danych telekomunikacyjnych (czyli np. billingów). W wielu krajach UE wyrok stał się impulsem do zmian prawnych, które wprowadziły silniejsze gwarancje ochrony danych osobowych i prawa do prywatności w zakresie przechowywania danych telekomunikacyjnych i możliwości sięgania po nie przez organy ścigania i służby specjalne;
    • Max Schrems (dziś aktywista organizacji NOYB) złożył skargę przeciwko Facebookowi, która doprowadziła do unieważnienia przez Trybunał Sprawiedliwości Unii Europejskiej decyzji Komisji Europejskiej ws. tzw. programu Safe Harbour („Bezpieczna Przystań”). Program umożliwiał transfer danych osobowych obywateli UE poza Unię na serwery amerykańskich firm bez zapewnienia odpowiednich gwarancji. Jak pokazały informacje ujawnione przez Edwarda Snowdena, dane te nie były wystarczająco zabezpieczone przed swobodnym dostępem amerykańskich służb;
    • Na mocy ugody sądowej z Facebookiem American Civil Liberties Union doprowadziła do tego, że firma zobowiązała się do zmiany praktyki umożliwiającej reklamodawcom oferującym kredyty, oferty pracy i nieruchomości dyskryminujące targetowanie reklam na portalu (np. według kryterium wieku czy rasy).
  • Sprawa sądowa uzupełnia inne działania (rzecznicze, edukacyjne, badawcze), które Panoptykon od dawna prowadzi na rzecz odpowiedzialnego i przejrzystego działania platform internetowych, także w kwestii moderacji treści użytkowników, np.:
    • List kilkudziesięciu organizacji do Marka Zuckerberga ws. sprawiedliwych zasad moderacji treści;
    • Nasza opinia dla Minsiterstwa Cyfryzacji dotycząca projektu unijnego rozporządzenia ws. zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym;
    • Nasze skargi przeciwko Google i IAB dotyczące ochrony danych osobowych w kontekście reklamy internetowej.
 Jakie są wasze argumenty przeciwko Facebookowi?

Arbitralne zablokowanie stron, kont, grup SIN przez Facebooka naruszyło jej dobra osobiste (art. 23–24 kodeksu cywilnego).

Czym są dobra osobiste?

W przypadku osób prawnych są to „wartości niemajątkowe, dzięki którym może ona [firma, organizacja – przyp. Panoptykon] funkcjonować zgodnie z przewidzianym zakresem działań (Wyrok Sądu Najwyższego z dnia 14 listopada 1986 r., sygn. akt II CR 295/86)”. Skuteczna realizacja celów takich organizacji jak SIN jest uzależniona od możliwości dotarcia do szerokiego kręgu odbiorców. W praktyce bez Facebooka nie jest to współcześnie możliwe.

Jakie dobra osobiste SIN zostały naruszone?

  • Swoboda wypowiedzi. Nałożona blokada ograniczyła SIN możliwość swobodnego wyrażania poglądów, rozpowszechniania informacji oraz komunikowania się ze swoimi odbiorcami.
  • Reputacja i rozpoznawalność. Nałożenie blokady podważa zaufanie do SIN, sugerując, że jej aktywność w serwisach Facebooka była szkodliwa.
  • Poczucie pewności i bezpieczeństwa. Brak zrozumienia motywów decyzji podjętej przez Facebooka spowodował po stronie SIN dezorientację, brak przewidywalności i możliwości wpływu na korzystanie z kluczowego kanału dotarcia do opinii publicznej. Korzystny wyrok może przetrzeć szlak innym osobom, które uważają, że zostały niesprawiedliwie zablokowane przez platformy internetowe, i ułatwić im dochodzenie swoich praw w kolejnych, podobnych procesach.

Czy takie działania Facebooka były bezprawne?

Tak: naruszyły standardy wolności słowa, rzetelnego procesu i prawa do skutecznego środka odwoławczego. Te standardy powinny być respektowane nie tylko przez państwa, ale także podmioty prywatne, w tym korporacje technologiczne. Działania platform internetowych nie mogą pozbawiać ich użytkowników praw podstawowych. Dlatego wewnętrzne regulacje, które przewidują np. możliwość arbitralnego cenzurowania treści, są nieważne, a zgoda użytkownika na nie (wyrażana np. przy akceptacji regulaminu serwisu) nie jest skuteczna. Dotyczy to zwłaszcza sytuacji, gdy użytkownicy nie mają realnej, równorzędnej alternatywy dla realizacji swoich praw. Tak właśnie jest w tej sprawie.

 Gdzie odbędzie się proces?
Sprawa toczy się przed Sądem Okręgowym w Warszawie.
 Czym dokładnie zajmuje się SIN?

SIN (Społeczna Inicjatywa Narkopolityki) jest organizacją pozarządową, która od 2011 r. zajmuje się edukacją narkotykową i działaniami z zakresu tzw. redukcji szkód, czyli takimi, które mają na celu ograniczenie negatywnych konsekwencji korzystania z używek. SIN pracuje głównie w klubach, na festiwalach muzycznych, a także za pośrednictwem sieci, gdzie udziela pomocy i ostrzega przed szczególnie niebezpiecznymi substancjami.

Redukcja szkód skupia się na ochronie zdrowia i życia użytkowników substancji psychoaktywnych. Zakłada, że najlepiej nie zaczynać używać narkotyków – lub przestać, jeżeli się to robi.

Jednocześnie ważne jest jednak, żeby ci, których nie da się od tego odwieść, robili to z jak najmniejszą szkodą dla siebie i otoczenia. Takie podejście od lat ratuje życia w wielu państwach na świecie.

Działania z zakresu redukcji szkód są rekomendowane m.in. przez Organizację Narodów Zjednoczonych, Unię Europejską (Strategia narkotykowa UE 2013–2020), Krajowe Biuro ds. Przeciwdziałania Narkomanii, Czerwony Krzyż, Lekarzy Świata, oraz setki innych instytucji i organizacji zajmujących się problematyką używania substancji psychoaktywnych.

Więcej informacji o SIN: www.sin.org.pl

 Portale społecznościowe codziennie kogoś blokują, dlaczego wybraliście SIN?
  • Chcieliśmy wesprzeć kogoś, kto działa na rzecz interesu publicznego i wykorzystuje do tego Facebooka.
  • Specyfika działalności SIN oraz grupa docelowa, do której jest ona skierowana (przede wszystkim młodzi ludzie), sprawiają, że Facebook jest wyjątkowo ważnym i skutecznym narzędziem w codziennej pracy SIN. Badania potwierdzają, że użytkownicy substancji psychoaktywnych są często odporni na edukację kierowaną z góry (od ekspertów, w szkołach, w tradycyjnych mediach), a znacznie bardziej podatni na poziome formy komunikacji, związane z budowaniem bezpośredniego zaangażowania. Jednocześnie to właśnie Facebook jest istotnym kanałem rozpowszechniania informacji na temat public health campaigns zdrowia publicznego wśród młodych ludzi, do których trudno dotrzeć za pomocą innych metod.
 Jaka jest rola Panoptykonu w tej sprawie?

Sam Panoptykon nie jest stroną w postępowaniu w sprawie SIN vs Facebook. Powodem (tzn. podmiotem, który wniósł pozew do sądu) w procesie jest SIN. Jako zablokowana organizacja stanowi bezpośrednią poszkodowaną w sprawie i w związku z tym jest uprawniona do zainicjowania postępowania przeciwko sprawcy naruszenia, czyli Facebookowi.

Panoptykon postanowił wspomóc SIN, zapewniając jej wsparcie prawne. Zaangażowaliśmy do pomocy kancelarię Wardyński i Wspólnicy, która zgodziła się reprezentować SIN w sądzie i prowadzić sprawę pro bono. Sprawa SIN vs Facebook jest też elementem naszych szerszych działań (zajrzyj do sekcji: Dlaczego zdecydowaliście się akurat na sprawę w sądzie, żeby osiągnąć te cele?) na rzecz ochrony praw użytkowników na platformach internetowych.

 Dlaczego mieszacie się w sprawy prywatnej firmy? I dlaczego akurat Facebook?

Z Facebooka korzysta ponad 2 mld użytkowników w ponad stu krajach świata (w Polsce 16 mln). Znajduje się on w czołówce najpotężniejszych firm świata i nie ma realnej konkurencji w swoim obszarze działania. W Polsce jest najpopularniejszym medium społecznościowym, dociera do ok. 80% internautów , a liczba jego realnych użytkowników przewyższa zasięg dwóch największych internetowych serwisów informacyjnych: Onetu i Gazeta.pl. „Władza” Facebooka nie bierze się tylko z potęgi finansowej i dominującej pozycji na rynku, ale ściśle wiąże się ze specyfiką jego działalności. Facebook to dziś ważny kanał komunikacji międzyludzkiej; forum, na którym wyrażamy opinie i poglądy, oraz źródło, z którego pozyskujemy informacje. Jego polityka moderacyjna stanowi potężne narzędzie sterowania naszym postrzeganiem rzeczywistość i siebie nawzajem.

Uważamy, że „władza” Facebooka powinna iść w parze z adekwatną odpowiedzialnością. Wychodzimy z założenia, że jeśli jakaś firma ma

tak istotny wpływ na to, jak współcześnie korzystamy z wolności słowa, powinniśmy wymagać, aby ją respektowała, i mieć możliwość ją z tego rozliczyć.

Oczywiście problem prywatnej cenzury dotyczy też innych platform internetowych. Zwłaszcza tych, które razem z Facebookiem kontrolują istotną część obiegu treści w sieci (a więc np. YouTube’a, Twittera czy wyszukiwarki Google). Według badania przeprowadzonego w 2016 r., w którym przeanalizowano regulaminy 50 platform internetowych, aż 88% z nich zastrzega sobie prawo do zablokowania konta użytkownika bez ostrzeżenia lub możliwości odwołania się. Choć nasza sprawa dotyczy bezpośrednio Facebooka, mamy nadzieję, że przyczyni się do wprowadzenia systemowych zmian (zajrzyj do sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury? ), które obejmą także inne platformy.

 Czy nie prościej byłoby zwyczajnie zrezygnować z Facebooka?
Apel o rezygnację z Facebooka to jedna z możliwych strategii, ale w warunkach działania organizacji społecznej mało skuteczna. Dlaczego?
  • Po pierwsze, taki pomysł może sprawdzi się w przypadku konkretnych osób, ale na poziomie systemowym niewiele zmieni (nawet gdyby każdy, do kogo dotarłby nasz apel, faktycznie skasował Facebooka, przy obecnej skali działania tej firmy nie miałoby to większego znaczenia). Chcieliśmy więc zrobić coś, co daje nam szansę na osiągniecie realnego wpływu.
  • Po drugie, uważamy, że w przypadku SIN, innych organizacji (w tym samego Panoptykonu), dziennikarzy, artystów etc. Facebook może być wykorzystywany jako skuteczne narzędzie dla osiągania pożytecznych celów. Chcielibyśmy, żeby w przyszłości na rynku portali społecznościowych panowała większa konkurencja i każdy mógł swobodnie wybrać ten, który działa najbardziej etycznie i zapewnia najwyższe standardy. Skoro jednak jest inaczej, chcemy zrobić coś, co może pomóc tym, dla których Facebook jest ważnym instrumentem działalności społecznej, zawodowej czy pozyskiwania informacji i którym trudno jest dziś z niego zrezygnować ze względu na jego dominującą pozycję.
  • Po trzecie, problem nie dotyczy tylko Facebooka, ale także innych platform internetowych. Nawet jeśli nie korzystasz z Facebooka, nie ochroni Cię to wcale przed prywatną cenzurą w sieci.

Część II. Więcej o prywatnej cenzurze

 Kto jeszcze padł ofiarą prywatnej cenzury w sieci?
  • Fotografia znana jako Napalm girl, czyli nagrodzone Pulitzerem zdjęcie nagiej dziewczynki uciekającej przed bombardowaniem napalmem podczas wojny w Wietnamie. Fotografię Nicka Uta opublikowała m.in. strona jednej z norweskich gazet. Została usunięta ze względu na rzekome promowanie dziecięcej nagości. Podobny los spotkał archiwalne zdjęcie z II wojny światowej, zamieszczone przez Centrum Anny Frank w Amsterdamie, przedstawiające rozebrane i wygłodzone żydowskie dzieci przetrzymywane przez nazistów. Wpis odsyłał do artykułu informującego o niskiej świadomości Amerykanów na temat Holokaustu.
  • Zdjęcia z Marszu Niepodległości w Warszawie z 2017 r. autorstwa fotografa Chrisa Niedenthala. Fotografie zawierały portrety uczestników marszu: zamaskowanych młodych ludzi z symbolami prawicowych organizacji i racami. Profil fotografa został zablokowany na 24 godziny. Prawdopodobnie serwis uznał, że fotoreportaż z demonstracji promuję totalitarne symbole.
  • Malarskie dzieła sztuki, takie jak m.in. Pochodzenie świata Gustawa Courbeta czy Zdjęcie z krzyża Petera Paula Rubensa, przedstawiające kobiece akty i inne nagie postaci (według Facebooka – promowały nagość).
  • Wizerunki osób o niestandardowym wyglądzie, takie jak fotografia modelki plus size Tess Holiday, promująca wydarzenie organizowane przez australijską organizację feministyczną (Facebook miał uznać, że zdjęcie narusza jego zasady dotyczące promocji zdrowego stylu życia), czy zdjęcie poparzonego mężczyzny w Szwecji, Lasse Gustavsona, kiedyś strażaka, który podczas akcji stracił włosy, brwi i uszy (zablokowane z niewiadomych przyczyn).
  • Stronę popularnego magazynu satyrycznego VIZ z Wielkiej Brytanii, istniejącego od 1979 r. Znany z prowokacyjnego poczucia humoru magazyn parodiuje brytyjskie komiksy i tabloidy. Nie wiadomo, który konkretnie wpis spowodował blokadę na Facebooku. W Polsce YouTube usunął natomiast jeden z odcinków satyrycznego programu Przy kawie o sprawie pt. Czy bić mężczyzn?, który poruszał problem przemocy i dyskryminacji wobec kobiet (został zablokowany ze względu na to, że… miał zachęcać do przemocy).

W większości tych przypadków po nagłośnieniu sprawy Facebook przyznał się do błędu i przywrócił usunięte treści. Niestety, nie każdy autor zablokowanego wpisu może liczyć na równie duże zainteresowanie opinii publicznej, dlatego w naszej sprawie walczymy o to, żeby każdy użytkownik miał realną możliwość skutecznego zakwestionowania prywatnej cenzury.

 Jakie zagrożenia powoduje prywatna cenzura w sieci?

Arbitralne i nieprzejrzyste moderowanie treści przez platformy internetowe takie jak Facebook ogranicza naszą wolność słowa, w tym prawo do informacji. Nie mamy możliwości skutecznego kwestionowania podjętych decyzji o usunięciu treści, nawet jeśli wydają nam się niesprawiedliwe, błędne czy szkodliwe.

Jakie może to mieć negatywne konsekwencje?

  • Jakość informacji

    O tym, co użytkownik może zobaczyć i czym się podzielić z innymi, decyduje prywatna firma, która w ramach swojej działalności nie kieruje się dobrem publicznym, ale własnym interesem ekonomicznym. Może ona premiować treści, które przynoszą jej zysk (np. budzące emocje materiały, które najlepiej nakarmią jej system reklamowy), a nie jakość i wartość informacji (mniej klikalne treści, choćby wartościowe, mogą być bardziej narażone na zablokowanie).

  • Nieformalna presja rządów

    Władze mogą ograniczać dostępność niewygodnych politycznie treści. Zamiast korzystać z przewidzianych dla siebie procedur (np. uzyskać zgodę sądu) mogą wybrać drogę na skróty i zacząć korzystać z mechanizmów samoregulacyjnych platform. Na świecie znane są takie przypadki.

  • Pluralizm debaty publicznej

    Nieprzejrzyste zasady moderowania treści sprawiają, że platformy, podejmując decyzje o usunięciu określonych materiałów, mogą kierować się określonymi sympatiami politycznymi czy światopoglądowymi, np. faworyzować treści prawicowe albo lewicowe.

  • Dyskryminacja

    Dowolnie przyjmowane i stosowane przez platformy kryteria oceny treści mogą dyskryminować poglądy osób należących do pewnych grup społecznych (np. o określonej orientacji seksualnej lub wyznawców danej religii). Szczególnie narażone na zablokowanie są grupy mniejszościowe – mogą one stać się ofiarą zorganizowanych kampanii zgłaszania ich materiałów przez duże grupy użytkowników, którym dana treść się po prostu się nie podoba (tzw. abusive flagging campaigns). Głos mniejszości i tak często słabo przebija się w debacie publicznej, więc blokowanie na Facebooku dodatkowo pogłębia ich izolację.

  • Błędy systemu

    Mechanizmy moderacji treści stosowane przez platformy (filtry, moderatorzy) nie są nieomylne. Błędy mogą wynikać np. z niewłaściwej interpretacji kontekstu, w jakim opublikowano dany materiał (np. sprawa zdjęcia Napalm girl - więcej przykładów znajdziesz w sekcji Kto jeszcze padł ofiarą prywatnej cenzury w sieci? ). Znane są też przypadki, gdy Facebook czy YouTube usuwały publikacje dokumentujące zbrodnie wojenne w Syrii czy przemoc przeciwko Rohingjom w Birmie. W ten sposób portal utrudnił pracę organizacjom zajmującym się ochroną praw człowieka oraz prokuratorom, którzy wykorzystują takie materiały jako dowody przeciwko sprawcom w procesach sądowych.

 Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury?
Nie chcemy, żeby dominujące platformy internetowe arbitralnie wyznaczały granice wolności słowa i nie ponosiły żadnej odpowiedzialności za swoje decyzje. Co się musi stać, żeby to się zmieniło?
  • Platformy powinny uwzględniać standardy swobody wypowiedzi wypracowane np. przez Europejski Trybunał Praw Człowieka na gruncie Europejskiej Konwencji Praw Człowieka.

    Co to znaczy?

    • Jeśli zgodnie ze standardami wolności słowa jakaś wypowiedź jest dopuszczalna w debacie publicznej, powinna być dopuszczalna także na platformach internetowych.
    • Nawet jednak jeśli pojedynczy post czy materiał wideo wykracza poza ramy swobody wypowiedzi, sankcje nakładane przez platformy zawsze powinny być przewidywalne i proporcjonalne (np. reakcją na zamieszczenie jednego wpisu, który jest nadużyciem, nie powinno być usunięcie całej strony czy konta).
    • Wolność słowa nie jest absolutna i może podlegać ograniczeniom, gdy dochodzi do jej nadużycia. Dlatego platformy mają obowiązek przeciwdziałać różnym szkodliwym treściom (np. hejtowi). Ich usuwanie jest uzasadnione i nie może być traktowane jako atak na swobodę wypowiedzi (więcej na ten temat piszemy w sekcji Czy walka z nadmiernym blokowaniem oznacza, że będzie trudniej usuwać hejt i inne szkodliwe treści z sieci?”).
  • Powinny istnieć wewnętrzne mechanizmy („sprawiedliwe procedury”) w ramach platform, które zapewnią przejrzystość podejmowanych przez nie decyzji i ograniczą ich arbitralność.

    Co to znaczy?

    • Użytkownik, którego treść została usunięta, powinien otrzymać wyjaśnienie powodów podjęcia takiej decyzji zawierające:
      • wskazanie materiału, który został uznany za niedopuszczalną;
      • punkt regulaminu, który został naruszony wraz z uzasadnieniem;
      • informację, w jaki sposób dana treść została zidentyfikowana jako nadużycie i poddana ocenie (np. czy zgłosił ją inny użytkownik, czy została wyłapana przez automatyczny filtr, czy decyzję o usunięciu podjął człowiek, czy algorytm);
      • informację, co może zrobić, jeśli nie zgadza się z dokonaną przez platformę oceną.
Umożliwi to użytkownikowi nie tylko odniesienie się do zarzutów, ale także uniknięcie podobnych sytuacji w przyszłości.
  • Aby móc skutecznie odwołać się od decyzji, użytkownik powinien mieć możliwość przedstawienia argumentów na swoją obronę, a jego odwołanie powinno być rozpatrywane w jasno określonych ramach czasowych przez osoby, które nie były zaangażowane w podjęcie pierwotnej decyzji.

Wszystkie te procedury powinny być opisane w przejrzysty sposób i być łatwo dostępne dla użytkowników (np. jasno wynikać z regulaminu platformy), tak żeby każdy z nich mógł bez wysiłku sprawdzić i egzekwować swoje „uprawnienia”.

Więcej na temat sprawiedliwej procedury można zobaczyć w Santa Clara Principles, rekomendacjach badaczy akademickich i przedstawicieli organizacji społecznych zajmujących się prawami cyfrowymi.

  • Użytkownicy powinni mieć zapewnioną możliwość zweryfikowania ostatecznych decyzji platform przed niezależnym organem zewnętrznym, takim jak sąd.

    Co to znaczy?

    • Jeśli użytkownik uzna, że usunięcie jego treści przez platformę było błędne i nie miał realnej szansy na obronę, powinien móc zwrócić się do sądu o zbadanie sprawy i nakazanie zmiany podjętej decyzji (przywrócenie usuniętej treści czy konta). Wynika to m.in. z zaleceń Rady Europy. To sąd, a nie prywatna firma, ma odpowiednie kompetencje do rzetelnej oceny tego, czy dana wypowiedź mieści się w granicach wolności słowa. Dlatego to właśnie sąd powinien mieć ostatnie słowo w tej kwestii.
     A czy sam Facebook nie wprowadził ostatnio rozwiązań, które rzucają więcej światła na proces moderacji treści?
    To prawda, w ostatnich miesiącach (już po zablokowaniu SIN), Facebook zwiększył przejrzystość usuwania treści i m.in.:
    • wprowadził możliwość odwołania się od decyzji o usunięciu poszczególnych postów w większości kategorii niedopuszczalnych treści (wcześniej można było odwołać się jedynie od blokady całego profilu lub strony);
    • twierdzi, że podaje więcej informacji o powodach blokady;
    • publikuje statystyki dotyczące usuwania niektórych kategorii treści naruszających Standardy społeczności;
    • zapowiada dalsze zmiany, np. powołanie „niezależnej rady doradczej”, która będzie rozpoznawała spory dotyczące kontrowersyjnych treści.

    Te rozwiązania wciąż są jednak niewystarczające, a w dodatku nie mają odzwierciedlenia w regulaminie portalu. Zgodnie z regulaminem Facebook może usuwać konta użytkowników lub dodawane przez nich treści, zawsze gdy uzna, że „naruszono jego wewnętrzne regulacje”, a o blokadzie poinformuje użytkownika jedynie „w stosownych przypadkach”.

    Nie ma tam nic o uzasadnieniu podejmowanych decyzji, szczegółach procedury odwoławczej czy innych gwarancjach chroniących użytkowników przed arbitralnością usuwania treści. Użytkownik może więc mieć duży problem ze znalezieniem klarownej informacji na temat procesu moderacji. Liczymy więc, że sprawa SIN vs Facebook będzie impulsem do dalszych zmian na portalu i wprowadzenia w pełni „sprawiedliwej procedury”, która wyznaczy standardy także dla innych platform.

    Pamiętajmy jednocześnie, że nawet najlepsze wewnętrzne procedury to tylko część rozwiązania problemu prywatnej cenzury. W sprawie SIN vs Facebook walczymy (zajrzyj do sekcji: Co musi się zmienić, żeby ograniczone zostały zagrożenia wynikające z prywatnej cenzury) także o to, żeby każdy kto nie zgadza się z ostateczną decyzją platform, mógł ją zakwestionować przed niezależnym, zewnętrznym organem, takim jak sąd.

     Czy walka z nadmiernym blokowaniem oznacza przyzwolenie na hejt i inne szkodliwe treści w sieci?

    Nie! Internet, w którym szanowana jest wolność słowa, nie oznacza przyzwolenia na mowę nienawiści, hejt, promocję przemocy i inne szkodliwe treści. Bez wątpienia platformy są ważnym ogniwem w walce z tego rodzaju naruszeniami w sieci i powinny je usuwać. Prywatna cenzura nie jest jednak rozwiązaniem tego problemu.

    Autorzy wspólnej deklaracji specjalnych sprawozdawców ONZ ds. wolności słowa i przeciwdziałania przemocy wobec kobiet podkreślają konieczność walki z cyberprzemocą, przy jednoczesnym powstrzymywaniu się od rozwiązań, które mogą spowodować nadmierne usuwanie legalnych treści.

    Zwracają uwagę, że prywatna cenzura nie tylko nie przybliży nas do skutecznej walki z nienawistnymi treściami, a wręcz przeciwnie: może wzmacniać dyskryminację (ponieważ podobnie jak mowa nienawiści może uderzać przede wszystkim w grupy szczególnie na dyskryminację narażone. Po więcej informacji zajrzyj do sekcji: Jakie zagrożenia powoduje prywatna cenzura w sieci?).

    Rozwiązania, o które walczymy (opisane w sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury?), nie osłabią więc walki ze szkodliwymi treściami na platformach internetowych. Zapewnią natomiast ochronę użytkownikom, którym niesłusznie ograniczono wolność słowa.

     Czy punkt kontaktowy dla zablokowanych użytkowników stworzony przez Ministerstwo Cyfryzacji nie wystarczy?

    Pod koniec 2018 r. polski rząd pochwalił się podpisaniem porozumienia z Facebookiem, które ma umożliwić polskim użytkownikom złożenie dodatkowego odwołania od decyzji portalu o usunięciu konta lub postu za pośrednictwem specjalnego „punktu kontaktowego”. Facebook ponownie rozważy sprawę i ewentualnie zmieni pierwotną decyzję. To dobrze, że polski rząd dostrzega problem nadmiernego usuwania treści przez Facebooka. Jednak punkt kontaktowy, choć być może w jednostkowych przypadkach pomoże przywrócić zablokowany materiał, niestety nie rozwiązuje tego problemu na poziomie systemowym.

    Dlaczego? Ta procedura wciąż ma te same wady, na które zwracamy uwagę w sprawie SIN vs Facebook.

    To nadal sam portal arbitralnie decyduje o tym, co powinno z niego zniknąć (w oparciu o niejasne kryteria, bez wystarczających gwarancji chroniących użytkowników przed nadużyciami). W porozumieniu nie ma mowy o żadnej sprawozdawczości (np. publikowaniu cyklicznych raportów z funkcjonowania punktu kontaktowego) i nie zmienia się też nic w kwestii wprowadzenia niezależnej, zewnętrznej kontroli nad decyzjami portalu.

    O tym, co powinno się zmienić, żeby realnie wzmocnić prawa użytkowników, piszemy w sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury

     Gdzie mogę dowiedzieć się więcej o problemie prywatnej cenzury?

    Santa Clara Principles – zbiór rekomendacji dotyczących „sprawiedliwej procedury” moderacji treści na platformach internetowych, stworzony przez badaczy akademickich i przedstawicieli organizacji społecznych zajmujących się prawami cyfrowymi.

    Side-stepping rights: Regulating speech by contract - analiza międzynarodowej organizacji ARTICLE 19 zajmującej się wolnością słowa na świecie dotycząca przestrzegania praw człowieka przez globalne platformy internetowe takie jak Facebook, Twitter czy You tube

    Fundacja Panoptykon:

     Na tej liście nie ma odpowiedzi na moje pytanie!
    Możesz się z nami skontaktować mailowo, na adres fundacja@panoptykon.org. Staramy się odpowiadać
    na każdą wiadomość, jaką dostajemy, choć czasem trzeba chwilę poczekać.
    Bohaterowie i sojusznicy

    SIN

    Społeczna Inicjatywa Narkopolityki (SIN) to organizacja pozarządowa, która od lat zajmuje się promowaniem wiedzy o szkodliwym działaniu środków psychoaktywnych oraz pomaganiem osobom, które zażywają takie substancje. Jej celem jest m.in. ograniczenie szkód powodowanych przez konsumpcję używek. W 2018 r. Facebook bez ostrzeżenia i przejrzystych wyjaśnień usunął strony i grupy SIN, uznając je za „niezgodne ze Standardami społeczności”. W styczniu 2019 r. w podobny sposób usunięto jedno z kont organizacji na (należącym do Facebooka) Instagramie.

    7 maja 2019 r. SIN, wspierana przez Fundację Panoptykon, złożyła w sądzie pozew, w którym zażądała od Facebooka publicznych przeprosin oraz przywrócenia dostępu do usuniętych stron i kont.

    Fundacja Panoptykon

    Fundacja Panoptykon to organizacja pozarządowa, która zajmuje się ochroną prywatności i wolności. Panoptykon sprawdza, jak państwo i firmy wykorzystują dane obywateli, ujawnia nadużycia, walczy o lepsze prawo oraz uczy, jak świadomie poruszać się w coraz bardziej cyfrowym świecie.

    W sprawie SIN vs Facebook Panoptykon postanowił wspomóc SIN, zapewniając jej wsparcie prawne oraz nagłaśniając sprawę.

    Kancelaria Wardyński i Wspólnicy

    Kancelaria Wardyński i Wspólnicy to jedna z największych niezależnych kancelarii prawnych w Polsce, działająca od 1988 r. Kancelaria bierze udział w projektach non profit, a związani z nią prawnicy są aktywnymi członkami polskich i międzynarodowych organizacji branżowych.

    W sprawie SIN vs Facebook, na prośbę fundacji Panoptykon, kancelaria reprezentuje SIN w sądzie oraz prowadzi sprawę pro bono. Pełnomocnikami SIN są adw. Łukasz Lasek i r. pr. Piotr Golędzinowski. Dziękujemy także za zaangażowanie w sprawę adw. Agnieszce Lisieckiej oraz Bartoszowi Troczyńskiemu.

    Digital Freedom Fund

    Digital Freedom Fund (DFF) wspiera strategiczne spory sądowe w obszarze praw cyfrowych w Europie. DFF zapewnia wsparcie finansowe i działa na rzecz współpracy pomiędzy aktywistami, którzy zajmują się ochroną praw cyfrowych, dążąc do skutecznego zagwarantowania praw człowieka w sieci.

    DFF przyznał Panoptykonowi wsparcie finansowe na prowadzenie sprawy SIN versus Facebook.

    Aktualności
    7 maja 2019 r. SIN, wspierana przez Fundację Panoptykon, złożyła w sądzie pozew, w którym zażądała od Facebooka publicznych przeprosin oraz przywrócenia dostępu do usuniętych stron i kont.

    WŁĄCZ SIĘ

    #zablokowani potrzebują Twojej pomocy.