SIN vs Facebook

Platformy internetowe takie jak Facebook, YouTube, TikTok czy Twitter w coraz większym stopniu kontrolują to, co możesz zobaczyć i powiedzieć w sieci. Teoretycznie robią to, żeby walczyć ze szkodliwym treściami – takimi jak hejt czy nawoływanie do przemocy. Zdarza się jednak, że usuwane są legalne i pożyteczne materiały, np. zdjęcia z reportaży wojennych, fotografie historyczne, publikacje dokumentujące brutalność policji i inne naruszenia praw człowieka, relacje z protestów społecznych, dzieła sztuki czy satyra.

English version

Takie nadmierne usuwanie treści na podstawie wewnętrznych regulacji platform nazywane jest prywatną cenzurą. Jest ona szczególnie groźna w dobie dominacji kilku firm o globalnym zasięgu, które przejmują rolę głównych kanałów komunikacji i pozyskiwania informacji.

Prywatnej cenzurze sprzyja brak przejrzystych zasad moderacji treści oraz skutecznych procedur odwoławczych dla zablokowanych. W tej sytuacji trudno jest zakwestionować podjętą przez platformę decyzję o usunięciu danego materiału czy całego konta.

Czas to zmienić! W sprawie SIN vs Facebook walczymy o ochronę praw osób, których wolność słowa została niesłusznie ograniczona poprzez arbitralną blokadę nałożoną przez platformy internetowe. W marcu 2024 r. wygraliśmy sprawę w pierwszej instancji. To jednak jeszcze nie koniec procesu – Meta złożyła apelację i sprawą zajmie się teraz Sąd Apelacyjny.

Video file
Sprawa SIN vs Facebook

Społeczna Inicjatywa Narkopolityki (SIN) to organizacja pozarządowa, która od lat zajmuje się promowaniem wiedzy o szkodliwym działaniu środków psychoaktywnych oraz pomaganiem osobom, które zażywają takie substancje. Jej celem jest m.in. ograniczenie szkód powodowanych przez konsumpcję używek.

W 2018 r. Facebook bez ostrzeżenia i przejrzystych wyjaśnień usunął strony i grupy SIN, uznając je za „niezgodne ze Standardami społeczności”.

W styczniu 2019 r. na podobnych zasadach usunięto jedno z kont organizacji na (należącym do Facebooka) Instagramie.

7 maja 2019 r. SIN, wspierana przez Fundację Panoptykon, złożyła w sądzie pozew, w którym zażądała od Facebooka publicznych przeprosin oraz przywrócenia dostępu do usuniętych stron i kont.

Wspieraj nas

Walka z prywatną cenzurą wciąż się nie skończyła. Przygotowujemy się do wydatków, z którymi wiąże się dalsze postępowanie przed sądem drugiej instancji. Jak możesz pomóc?

Kulisy sprawy
ikony social mediów

SIN od 2011 r. prowadziła stronę na Facebooku, na której m.in. ostrzegała przed niebezpieczeństwami związanymi z zażywaniem substancji odurzających. W 2018 r. działalność SIN na portalu zaczęła nagle budzić zastrzeżenia moderatorów (albo jego algorytmów): najpierw usunięto jedną z grup, a następnie całą stronę organizacji, obserwowaną przez 16 tys. osób. Próba odwołania się od decyzji poprzez mechanizm oferowany przez Facebooka nie przyniosła rezultatu. Członkowie SIN do tej pory nie wiedzą, które z publikowanych przez nich materiałów i z jakiego powodu Facebook uznał za naruszenie Standardów społeczności.

Głównymi odbiorcami działań SIN są osoby młode, szczególnie narażone na eksperymentowanie ze środkami odurzającymi, aktywne na portalach społecznościowych. Facebook stanowił podstawowy kanał komunikacji SIN, poprzez który organizacja promowała swoje działania i misję, kontaktowała się wolontariuszami i zdobywała fundusze.

To na Facebooku do organizacji zwracały się z prośbą o pomoc osoby zażywające substancje psychoaktywne. Instagram pomagał SIN docierać do młodszych użytkowników. Usunięcie stron, grup i kont znacznie utrudniło organizacji realizację działań edukacyjnych i innych zadań statutowych oraz ograniczyło zasięg publikowanych informacji i możliwość komunikacji z odbiorcami.

Sprawa SIN vs Facebook w pytaniach i odpowiedziach

Historia SIN dobrze pokazuje zagrożenia, jakie powoduje prywatna cenzura w Internecie. W procesie SIN vs Facebook walczymy o uznanie przez sąd, że nieprzejrzyste i arbitralne działanie portalu doprowadziło do nieuzasadnionego naruszenia praw tego stowarzyszenia. Chcemy, by sprawa przyczyniła się do tego, że:

  • decyzje platform internetowych o usuwaniu treści będą zapadały w bardziej przejrzysty sposób (m.in. tak, żeby zablokowany użytkownik wiedział, jakie dokładnie materiały zostały uznane za naruszające regulamin i dlaczego);
  • blokady nakładane przez platformy będą miały proporcjonalny charakter (platformy powinny usuwać szkodliwe treści, ale reakcją na zamieszczenie np. jednego wpisu, który jest nadużyciem, nie powinno być – poza skrajnymi sytuacjami – usunięcie całej strony czy konta);
  • zablokowani użytkownicy będą mogli skuteczniej kwestionować decyzje o usunięciu treści, jeśli uznają je za niesłuszne czy nieuzasadnione. Chcemy, żeby platformy internetowe stworzyły możliwość skutecznego odwołania od swoich decyzji (czyli m.in. wprowadziły procedurę umożliwiającą przedstawienie zablokowanemu użytkownikowi własnej argumentacji) i żeby uzasadniały podejmowane decyzje. Dodatkowo od ostatecznych decyzji platform powinna istnieć możliwość odwołania się do sądu.

Więcej o naszych długofalowych celach znajdziesz dowiesz się w sekcji: Co musi się zmienić, żeby ograniczone zostały zagrożenia wynikające z prywatnej cenzury?

  • Korzystny wyrok może przetrzeć szlak innym osobom, które uważają, że zostały niesprawiedliwie zablokowane przez platformy internetowe, i ułatwić im dochodzenie swoich praw w kolejnych, podobnych procesach.
  • Sprawa może przyczynić się do wprowadzenia zmian w praktyce działania platform internetowych (więcej w sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury?) oraz zmian prawnych. Wykorzystanie spraw sądowych jako narzędzia walki o zmiany systemowe, których celem jest np. podniesienie standardów ochrony praw człowieka, nazywamy litygacją strategiczną. Jest to instrument, którym od lat posługuje się wiele organizacji społecznych, walcząc m.in. o prawa człowieka w kontekście nowoczesnych technologii, np.:
    • Digital Rights Ireland doprowadziła do unieważnienia przez Trybunał Sprawiedliwości Unii Europejskiej unijnej dyrektywy o tzw. retencji danych telekomunikacyjnych (czyli np. billingów). W wielu krajach UE wyrok stał się impulsem do zmian prawnych, które wprowadziły silniejsze gwarancje ochrony danych osobowych i prawa do prywatności w zakresie przechowywania danych telekomunikacyjnych i możliwości sięgania po nie przez organy ścigania i służby specjalne;
    • Max Schrems (dziś aktywista organizacji NOYB) złożył skargę przeciwko Facebookowi, która doprowadziła do unieważnienia przez Trybunał Sprawiedliwości Unii Europejskiej decyzji Komisji Europejskiej ws. tzw. programu Safe Harbour („Bezpieczna Przystań”). Program umożliwiał transfer danych osobowych obywateli UE poza Unię na serwery amerykańskich firm bez zapewnienia odpowiednich gwarancji. Jak pokazały informacje ujawnione przez Edwarda Snowdena, dane te nie były wystarczająco zabezpieczone przed swobodnym dostępem amerykańskich służb;
    • Na mocy ugody sądowej z Facebookiem American Civil Liberties Union doprowadziła do tego, że firma zobowiązała się do zmiany praktyki umożliwiającej reklamodawcom oferującym kredyty, oferty pracy i nieruchomości dyskryminujące targetowanie reklam na portalu (np. według kryterium wieku czy rasy).
  • Sprawa sądowa uzupełnia inne działania (rzecznicze, edukacyjne, badawcze), które Panoptykon od dawna prowadzi na rzecz odpowiedzialnego i przejrzystego działania platform internetowych, także w kwestii moderacji treści użytkowników, np.:
    • działania rzecznicze dotyczące wprowadzenie regulacji przeciwdziałających prywatnej cenzurze do aktu o usługach cyfrowych (DSA);
    • list kilkudziesięciu organizacji do Marka Zuckerberga ws. sprawiedliwych zasad moderacji treści;
    • opinia dla Ministerstwa Cyfryzacji dotycząca projektu unijnego rozporządzenia ws. zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym;
    • skargi przeciwko Google i IAB dotyczące ochrony danych osobowych w kontekście reklamy internetowej.

Arbitralne zablokowanie stron, kont, grup SIN przez Facebooka naruszyło jej dobra osobiste (art. 23–24 kodeksu cywilnego).

Czym są dobra osobiste?

W przypadku osób prawnych są to „wartości niemajątkowe, dzięki którym może ona [firma, organizacja – przyp. Panoptykon] funkcjonować zgodnie z przewidzianym zakresem działań (Wyrok Sądu Najwyższego z dnia 14 listopada 1986 r., sygn. akt II CR 295/86)”. Skuteczna realizacja celów takich organizacji jak SIN jest uzależniona od możliwości dotarcia do szerokiego kręgu odbiorców. W praktyce bez Facebooka nie jest to współcześnie możliwe.

Jakie dobra osobiste SIN zostały naruszone?
  • Swoboda wypowiedzi. Nałożona blokada ograniczyła SIN możliwość swobodnego wyrażania poglądów, rozpowszechniania informacji oraz komunikowania się ze swoimi odbiorcami.
  • Reputacja i rozpoznawalność. Nałożenie blokady podważa zaufanie do SIN, sugerując, że jej aktywność w serwisach Facebooka była szkodliwa.
Czy takie działania Facebooka były bezprawne?

Tak: naruszyły standardy wolności słowa, rzetelnego procesu i prawa do skutecznego środka odwoławczego. Te standardy powinny być respektowane nie tylko przez państwa, ale także podmioty prywatne, w tym korporacje technologiczne. Działania platform internetowych nie mogą pozbawiać ich użytkowników praw podstawowych. Dlatego wewnętrzne regulacje, które przewidują np. możliwość arbitralnego cenzurowania treści, są nieważne, a zgoda użytkownika na nie (wyrażana np. przy akceptacji regulaminu serwisu) nie jest skuteczna. Dotyczy to zwłaszcza sytuacji, gdy użytkownicy nie mają realnej, równorzędnej alternatywy dla realizacji swoich praw. Tak właśnie jest w tej sprawie.

Sprawa toczyła się w pierwszej instancji przed Sądem Okręgowym w Warszawie. Meta złożyła apelację, którą w drugiej instancji rozpozna Sąd Apelacyjny w Warszawie.

SIN (Społeczna Inicjatywa Narkopolityki) jest organizacją pozarządową, która od 2011 r. zajmuje się edukacją narkotykową i działaniami z zakresu tzw. redukcji szkód, czyli takimi, które mają na celu ograniczenie negatywnych konsekwencji korzystania z używek. SIN pracuje głównie w klubach, na festiwalach muzycznych, a także za pośrednictwem sieci, gdzie udziela pomocy i ostrzega przed szczególnie niebezpiecznymi substancjami.

Redukcja szkód skupia się na ochronie zdrowia i życia użytkowników substancji psychoaktywnych. Zakłada, że najlepiej nie zaczynać używać narkotyków – lub przestać, jeżeli się to robi.

Jednocześnie ważne jest jednak, żeby ci, których nie da się od tego odwieść, robili to z jak najmniejszą szkodą dla siebie i otoczenia. Takie podejście od lat ratuje życia w wielu państwach na świecie.

Działania z zakresu redukcji szkód są rekomendowane m.in. przez Organizację Narodów Zjednoczonych, Unię Europejską (Strategia narkotykowa UE 2013–2020), Krajowe Biuro ds. Przeciwdziałania Narkomanii, Czerwony Krzyż, Lekarzy Świata, oraz setki innych instytucji i organizacji zajmujących się problematyką używania substancji psychoaktywnych.

Więcej informacji o SIN

  • Chcieliśmy wesprzeć kogoś, kto działa na rzecz interesu publicznego i wykorzystuje do tego Facebooka.
  • Specyfika działalności SIN oraz grupa docelowa, do której jest ona skierowana (przede wszystkim młodzi ludzie), sprawiają, że Facebook jest wyjątkowo ważnym i skutecznym narzędziem w codziennej pracy SIN. Badania potwierdzają, że użytkownicy substancji psychoaktywnych są często odporni na edukację kierowaną z góry (od ekspertów, w szkołach, w tradycyjnych mediach), a znacznie bardziej podatni na poziome formy komunikacji, związane z budowaniem bezpośredniego zaangażowania. Jednocześnie to właśnie Facebook jest istotnym kanałem rozpowszechniania informacji na temat zdrowia publicznego wśród młodych ludzi, do których trudno dotrzeć za pomocą innych metod.

Sam Panoptykon nie jest stroną w postępowaniu w sprawie SIN vs Facebook. Powodem (tzn. podmiotem, który wniósł pozew do sądu) w procesie jest SIN. Jako zablokowana organizacja stanowi bezpośrednią poszkodowaną w sprawie i w związku z tym jest uprawniona do zainicjowania postępowania przeciwko sprawcy naruszenia, czyli Facebookowi.

Panoptykon postanowił wspomóc SIN, zapewniając jej wsparcie prawne. Zaangażowaliśmy do pomocy kancelarię Wardyński i Wspólnicy, która zgodziła się reprezentować SIN w sądzie i prowadzić sprawę pro bono. Sprawa SIN vs Facebook jest też elementem naszych szerszych działań (zajrzyj do sekcji: Dlaczego zdecydowaliście się akurat na sprawę w sądzie, żeby osiągnąć te cele?) na rzecz ochrony praw użytkowników na platformach internetowych.

Z Facebooka korzysta ponad 3 mld użytkowników w ponad stu krajach świata (w Polsce ok. 20 mln). Znajduje się on w czołówce najpotężniejszych firm świata i nie ma realnej konkurencji w swoim obszarze działania. Gdy zaczynaliśmy proces, był zdecydowanie najpopularniejszym medium społecznościowym w Polsce, docierając do ok. 80% internautów, a liczba jego realnych użytkowników przewyższała zasięg dwóch największych internetowych serwisów informacyjnych: Onetu i Gazeta.pl. Władza Facebooka nie bierze się tylko z potęgi finansowej i dominującej pozycji na rynku, ale ściśle wiąże się ze specyfiką jego działalności. Facebook to dziś ważny kanał komunikacji międzyludzkiej; forum, na którym wyrażamy opinie i poglądy, oraz źródło, z którego pozyskujemy informacje. Jego polityka moderacyjna stanowi potężne narzędzie sterowania naszym postrzeganiem rzeczywistość i siebie nawzajem.

Uważamy, że władza Facebooka powinna iść w parze z adekwatną odpowiedzialnością. Wychodzimy z założenia, że jeśli jakaś firma ma tak istotny wpływ na to, jak współcześnie korzystamy z wolności słowa, powinniśmy wymagać, aby ją respektowała, i mieć możliwość ją z tego rozliczyć.

Oczywiście problem prywatnej cenzury dotyczy też innych platform internetowych. Zwłaszcza tych, które razem z Facebookiem kontrolują istotną część obiegu treści w sieci (a więc np. YouTuba, X, TikToka czy wyszukiwarki Google). Według badania przeprowadzonego w 2016 r., w którym przeanalizowano regulaminy 50 platform internetowych, aż 88% z nich zastrzega sobie prawo do blokowania kont bez ostrzeżenia lub możliwości odwołania się. Choć nasza sprawa dotyczy bezpośrednio Facebooka, mamy nadzieję, że przyczyni się do wprowadzenia systemowych zmian (zajrzyj do sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury?), które obejmą także inne platformy.

Apel o rezygnację z Facebooka to jedna z możliwych strategii, ale w warunkach działania organizacji społecznej mało skuteczna. Dlaczego?

  • Po pierwsze, taki pomysł może sprawdzi się w przypadku konkretnych osób, ale na poziomie systemowym niewiele zmieni (nawet gdyby każdy, do kogo dotarłby nasz apel, faktycznie skasował Facebooka, przy obecnej skali działania tej firmy nie miałoby to większego znaczenia). Chcieliśmy więc zrobić coś, co daje nam szansę na osiągniecie realnego wpływu.
  • Po drugie, uważamy, że w przypadku SIN, innych organizacji (w tym samego Panoptykonu), dziennikarzy, artystów etc. Facebook może być wykorzystywany jako skuteczne narzędzie dla osiągania pożytecznych celów. Chcielibyśmy, żeby w przyszłości na rynku portali społecznościowych panowała większa konkurencja i każdy mógł swobodnie wybrać ten, który działa najbardziej etycznie i zapewnia najwyższe standardy. Skoro jednak jest inaczej, chcemy zrobić coś, co może pomóc tym, dla których Facebook jest ważnym instrumentem działalności społecznej, zawodowej czy pozyskiwania informacji i którym trudno jest dziś z niego zrezygnować ze względu na jego dominującą pozycję.
  • Po trzecie, problem nie dotyczy tylko Facebooka, ale także innych platform internetowych. Nawet jeśli nie korzystasz z Facebooka, nie ochroni cię to wcale przed prywatną cenzurą w sieci.

Gdy złożyliśmy nasz pozew w maju 2019 r., wiedzieliśmy, że Facebook nie będzie nam ułatwiał prowadzenia sprawy. Nie sądziliśmy jednak, że aż tak będzie starał się uniknąć konfrontacji z naszymi argumentami dotyczącymi prywatnej cenzury na portalu. Tymczasem Facebook odmówił przyjęcia pozwu, ponieważ „nie ma w swoim zespole procesowym pracowników mówiących po polsku” (więcej na ten temat). Tak właśnie, firma, która obsługuje prawie 20 mln polskich użytkowników, w naszej sprawie twierdzi, że „nie rozumie po polsku”.

W efekcie sąd przekazał dokumenty sprawy do oficjalnego tłumaczenia i obciążył kosztami SIN. Do zapłacenia było 8 841,56 zł.

Potrzebną kwotę udało nam się już zebrać (dziękujemy wszystkim, którzy wsparli akcję!). Nadal uważamy, że w sporze z globalnymi korporacjami, takimi jak Facebook, każdy ma prawo domagać się swoich racji we własnym języku, dlatego odwołaliśmy się od decyzji sądu. Jeśli sąd uwzględni nasze odwołanie, zebrane środki (wraz z nadwyżką) przeznaczymy na dalsze koszty związane z prowadzeniem sprawy.

Tak
Prywatna cenzura w pytaniach i odpowiedziach
  • Fotografia znana jako Napalm girl, czyli nagrodzone Pulitzerem zdjęcie nagiej dziewczynki uciekającej przed bombardowaniem napalmem podczas wojny w Wietnamie. Fotografię Nicka Uta opublikowała m.in. strona jednej z norweskich gazet. Została usunięta ze względu na rzekome promowanie dziecięcej nagości. Podobny los spotkał archiwalne zdjęcie z II wojny światowej, zamieszczone przez Centrum Anny Frank w Amsterdamie, przedstawiające rozebrane i wygłodzone żydowskie dzieci przetrzymywane przez nazistów. Wpis odsyłał do artykułu informującego o niskiej świadomości Amerykanów na temat Holokaustu.
  • Zdjęcia z Marszu Niepodległości w Warszawie z 2017 r. autorstwa fotografa Chrisa Niedenthala. Fotografie zawierały portrety uczestników marszu: zamaskowanych młodych ludzi z symbolami prawicowych organizacji i racami. Profil fotografa został zablokowany na 24 godziny. Prawdopodobnie serwis uznał, że fotoreportaż z demonstracji promuje totalitarne symbole.
  • Malarskie dzieła sztuki, takie jak m.in. Pochodzenie świata Gustawa Courbeta czy Zdjęcie z krzyża Petera Paula Rubensa, przedstawiające kobiece akty i inne nagie postaci (według Facebooka – promowały nagość).
  • Wizerunki osób o niestandardowym wyglądzie, takie jak fotografia modelki plus size Tess Holiday, promująca wydarzenie organizowane przez australijską organizację feministyczną (Facebook miał uznać, że zdjęcie narusza jego zasady dotyczące promocji zdrowego stylu życia), czy zdjęcie poparzonego mężczyzny w Szwecji, Lasse Gustavsona, kiedyś strażaka, który podczas akcji stracił włosy, brwi i uszy (zablokowane z niewiadomych przyczyn).
  • Strona popularnego magazynu satyrycznego VIZ z Wielkiej Brytanii, istniejącego od 1979 r. Znany z prowokacyjnego poczucia humoru magazyn parodiuje brytyjskie komiksy i tabloidy. Nie wiadomo, który konkretnie wpis spowodował blokadę na Facebooku. W Polsce YouTube usunął natomiast jeden z odcinków satyrycznego programu Przy kawie o sprawie pt. Czy bić mężczyzn?, który poruszał problem przemocy i dyskryminacji wobec kobiet (został zablokowany ze względu na to, że… miał zachęcać do przemocy).

W większości tych przypadków po nagłośnieniu sprawy Facebook przyznał się do błędu i przywrócił usunięte treści. Niestety, nie każdy autor i autorka zablokowanego wpisu może liczyć na równie duże zainteresowanie opinii publicznej, dlatego w naszej sprawie walczymy o to, żeby każdy miał realną możliwość skutecznego zakwestionowania prywatnej cenzury.

Arbitralne i nieprzejrzyste moderowanie treści przez platformy internetowe takie jak Facebook ogranicza naszą wolność słowa, w tym prawo do informacji. Nie mamy możliwości skutecznego kwestionowania podjętych decyzji o usunięciu treści, nawet jeśli wydają nam się niesprawiedliwe, błędne czy szkodliwe.

Jakie może to mieć negatywne konsekwencje?

  • Jakość informacji

    O tym, co użytkownik może zobaczyć i czym się podzielić z innymi, decyduje prywatna firma, która w ramach swojej działalności nie kieruje się dobrem publicznym, ale własnym interesem ekonomicznym. Może ona premiować treści, które przynoszą jej zysk (np. budzące emocje materiały, które najlepiej nakarmią jej system reklamowy), a nie jakość i wartość informacji (mniej klikalne treści, choćby wartościowe, mogą być bardziej narażone na zablokowanie).

  • Nieformalna presja rządów

    Władze mogą ograniczać dostępność niewygodnych politycznie treści. Zamiast korzystać z przewidzianych dla siebie procedur (np. uzyskać zgodę sądu) mogą wybrać drogę na skróty i zacząć korzystać z mechanizmów samoregulacyjnych platform. Na świecie znane są takie przypadki.

  • Pluralizm debaty publicznej

    Nieprzejrzyste zasady moderowania treści sprawiają, że platformy, podejmując decyzje o usunięciu określonych materiałów, mogą kierować się określonymi sympatiami politycznymi czy światopoglądowymi, np. faworyzować treści prawicowe albo lewicowe.

  • Dyskryminacja

    Dowolnie przyjmowane i stosowane przez platformy kryteria oceny treści mogą dyskryminować poglądy osób należących do pewnych grup społecznych (np. o określonej orientacji seksualnej lub wyznawców danej religii). Szczególnie narażone na zablokowanie są grupy mniejszościowe – mogą one stać się ofiarą zorganizowanych kampanii zgłaszania ich materiałów przez duże grupy użytkowników i użytkowniczek, którym dana treść się po prostu się nie podoba (tzw. abusive flagging campaigns). Głos mniejszości i tak często słabo przebija się w debacie publicznej, więc blokowanie na Facebooku dodatkowo pogłębia ich izolację.

  • Błędy systemu

    Mechanizmy moderacji treści stosowane przez platformy (filtry, moderatorzy) nie są nieomylne. Błędy mogą wynikać np. z niewłaściwej interpretacji kontekstu, w jakim opublikowano dany materiał (np. sprawa zdjęcia Napalm girl – więcej przykładów znajdziesz w sekcji Kto jeszcze padł ofiarą prywatnej cenzury w sieci?). Znane są też przypadki, gdy Facebook czy YouTube usuwały publikacje dokumentujące zbrodnie wojenne w Syrii czy przemoc przeciwko Rohingjom w Birmie. W ten sposób portal utrudnił pracę organizacjom zajmującym się ochroną praw człowieka oraz prokuratorom, którzy wykorzystują takie materiały jako dowody przeciwko sprawcom w procesach sądowych.

Nie chcemy, żeby dominujące platformy internetowe arbitralnie wyznaczały granice wolności słowa i nie ponosiły żadnej odpowiedzialności za swoje decyzje. Co się musi stać, żeby to się zmieniło?

  • Platformy powinny uwzględniać standardy swobody wypowiedzi wypracowane np. przez Europejski Trybunał Praw Człowieka na gruncie Europejskiej Konwencji Praw Człowieka.

    Co to znaczy?

    • Jeśli zgodnie ze standardami wolności słowa jakaś wypowiedź jest dopuszczalna w debacie publicznej, powinna być dopuszczalna także na platformach internetowych.
    • Nawet jednak jeśli pojedynczy post czy materiał wideo wykracza poza ramy swobody wypowiedzi, sankcje nakładane przez platformy zawsze powinny być przewidywalne i proporcjonalne (np. reakcją na zamieszczenie jednego wpisu, który jest nadużyciem, nie powinno być usunięcie całej strony czy konta).
    • Wolność słowa nie jest absolutna i może podlegać ograniczeniom, gdy dochodzi do jej nadużycia. Dlatego platformy mają obowiązek przeciwdziałać różnym szkodliwym treściom (np. hejtowi). Ich usuwanie jest uzasadnione i nie może być traktowane jako atak na swobodę wypowiedzi (więcej na ten temat piszemy w sekcji Czy walka z nadmiernym blokowaniem oznacza, że będzie trudniej usuwać hejt i inne szkodliwe treści z sieci?).
  • Powinny istnieć wewnętrzne mechanizmy („sprawiedliwe procedury”) w ramach platform, które zapewnią przejrzystość podejmowanych przez nie decyzji i ograniczą ich arbitralność.

    Co to znaczy?

    • Osoba, której treść została usunięta, powinna otrzymać wyjaśnienie powodów podjęcia takiej decyzji zawierające:
      • wskazanie materiału, który został uznany za niedopuszczalną;
      • punkt regulaminu, który został naruszony wraz z uzasadnieniem;
      • informację, w jaki sposób dana treść została zidentyfikowana jako nadużycie i poddana ocenie (np. czy zgłosiła ją inna osoba korzystająca z portalu, czy została wyłapana przez automatyczny filtr, czy decyzję o usunięciu podjął człowiek, czy algorytm);
      • informację, co może zrobić, jeśli nie zgadza się z dokonaną przez platformę oceną.

Umożliwi to osobie zablokowanej nie tylko odniesienie się do zarzutów, ale także uniknięcie podobnych sytuacji w przyszłości.

  • Aby móc skutecznie odwołać się od decyzji, osoba zablokowana powinna mieć możliwość przedstawienia argumentów na swoją obronę, a odwołanie powinno być rozpatrywane w jasno określonych ramach czasowych przez osoby, które nie były zaangażowane w podjęcie pierwotnej decyzji.

Wszystkie te procedury powinny być opisane w przejrzysty sposób i być łatwo dostępne dla użytkowników i użytkowniczek (np. jasno wynikać z regulaminu platformy), tak żeby każdy i każda z nich mogła bez wysiłku sprawdzić i egzekwować swoje uprawnienia.

Więcej na temat sprawiedliwej procedury można zobaczyć w Santa Clara Principles, rekomendacjach badaczy akademickich i przedstawicieli organizacji społecznych zajmujących się prawami cyfrowymi.

  • Użytkownicy i użytkowniczki powinni mieć zapewnioną możliwość zweryfikowania ostatecznych decyzji platform przed niezależnym organem zewnętrznym, takim jak sąd.

    Co to znaczy?

    • Jeśli użytkowniczka uzna, że usunięcie jej treści przez platformę było błędne i nie miała realnej szansy na obronę, powinna móc zwrócić się do sądu o zbadanie sprawy i nakazanie zmiany podjętej decyzji (przywrócenie usuniętej treści czy konta). Wynika to m.in. z zaleceń Rady Europy. To sąd, a nie prywatna firma, ma odpowiednie kompetencje do rzetelnej oceny tego, czy dana wypowiedź mieści się w granicach wolności słowa. Dlatego to właśnie sąd powinien mieć ostatnie słowo w tej kwestii.

W 2023 r. zaczęła obowiązywać nowa regulacja – akt o usługach cyfrowych (DSA) – która wprost zobowiązała platformy internetowe do szczegółowego uzasadniania takich decyzji i stworzenia bardziej skutecznych, wewnętrznych procedur odwoławczych. Czy jednak firma Meta w pełni poprawnie wdrożyła nowe prawo? To sprawdzi Komisja Europejska, która nadzoruje to, jak wielkie platformy realizują nowe obowiązki.

Pamiętajmy jednocześnie, że nawet najlepsze wewnętrzne procedury to tylko część rozwiązania problemu prywatnej cenzury. W sprawie SIN vs Facebook walczymy także o to, żeby każdy kto nie zgadza się z ostateczną decyzją platform, mógł ją zakwestionować przed niezależnym, zewnętrznym organem, takim jak sąd (zajrzyj do sekcji: Co musi się zmienić, żeby ograniczone zostały zagrożenia wynikające z prywatnej cenzury). Zgodnie z DSA takimi organami mają być sądy oraz zupełnie nowe instytucje, czyli pozasądowe organy rozstrzygania sporów, które mogą powstać na gruncie nowej regulacji. Wyrok Sądu Okręgowego w Warszawie w naszej sprawie przeciera przewidziany w DSA szlak sądowy dla pozwania Mety w Polsce i kwestionowania przed sądem prywatnej cenzury na platformach internetowych.

Nie! Internet, w którym szanowana jest wolność słowa, nie oznacza przyzwolenia na mowę nienawiści, hejt, promocję przemocy i inne szkodliwe treści. Bez wątpienia platformy są ważnym ogniwem w walce z tego rodzaju naruszeniami w sieci i powinny je usuwać. Prywatna cenzura nie jest jednak rozwiązaniem tego problemu.

Autorzy wspólnej deklaracji specjalnych sprawozdawców ONZ ds. wolności słowa i przeciwdziałania przemocy wobec kobiet podkreślają konieczność walki z cyberprzemocą, przy jednoczesnym powstrzymywaniu się od rozwiązań, które mogą spowodować nadmierne usuwanie legalnych treści.

Zwracają uwagę, że prywatna cenzura nie tylko nie przybliży nas do skutecznej walki z nienawistnymi treściami, a wręcz przeciwnie: może wzmacniać dyskryminację (ponieważ podobnie jak mowa nienawiści może uderzać przede wszystkim w grupy szczególnie na dyskryminację narażone. Po więcej informacji zajrzyj do sekcji: Jakie zagrożenia powoduje prywatna cenzura w sieci?).

Rozwiązania, o które walczymy (opisane w sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury?), nie osłabią więc walki ze szkodliwymi treściami na platformach internetowych. Zapewnią natomiast ochronę użytkownikom, którym niesłusznie ograniczono wolność słowa.

Pod koniec 2018 r. polski rząd pochwalił się podpisaniem porozumienia z Facebookiem, które miało umożliwić polskim użytkownikom i użytkowniczkom złożenie dodatkowego odwołania od decyzji portalu o usunięciu konta lub postu za pośrednictwem specjalnego punktu kontaktowego. Facebook miał ponownie rozważyć sprawę i ewentualnie zmienić pierwotną decyzję. 25 sierpnia 2023 r. punkt kontaktowy został zamknięty.

A nawet, gdy działał, nie rozwiązywał problemu na poziomie systemowym. Dlaczego? Procedura miała te same wady, na które zwracamy uwagę w sprawie SIN vs Facebook. To nadal sam portal arbitralnie decydował o tym, co powinno z niego zniknąć (w oparciu o niejasne kryteria, bez wystarczających gwarancji chroniących osoby korzystające z portalu przed nadużyciami). W porozumieniu nie było mowy o żadnej sprawozdawczości (np. publikowaniu cyklicznych raportów z funkcjonowania punktu kontaktowego) i nie zmieniło się nic w kwestii wprowadzenia niezależnej, zewnętrznej kontroli nad decyzjami portalu.

O tym, co powinno się zmienić, żeby realnie wzmocnić prawa użytkowników, piszemy w sekcji: Co musi się zmienić, żeby ograniczyć zagrożenia wynikające z prywatnej cenzury.

Tak
Kalendarium sprawy

SIN, wspierana przez Fundację Panoptykon, złożyła w sądzie pozew, w którym zażądała od Facebooka publicznych przeprosin oraz przywrócenia dostępu do usuniętych stron i kont.

Sąd Okręgowy w Warszawie w istotnej części uwzględnił wniosek SIN o zabezpieczenie powództwa. Do czasu rozstrzygnięcia sprawy sąd zakazał Facebookowi usuwania stron, kont i grup prowadzonych na Facebooku i Instagramie przez SIN, a także blokowania pojedynczych postów. Facebook został też zobowiązany do zachowania usuniętych w 2018 r. i 2019 r. kont, stron i grup, tak aby w razie wygrania procesu przez SIN mogły one zostać przywrócone wraz z całą opublikowaną na nich treścią, komentarzami innych użytkowników, a także osobami je obserwującymi i lubiącymi. Sąd uznał również, że sprawa powinna być rozpoznawana w Polsce na podstawie polskiego prawa. Postanowienie nie jest prawomocne – Facebook może je zaskarżyć do składu odwoławczego Sądu Okręgowego.

Więcej o decyzji sądu

Nikt z zatrudnionych w dziale procesowym irlandzkiego Facebooka nie mówi po polsku. W związku z tym sąd zobowiązał SIN do wpłaty zaliczki na poczet tłumaczenia pozwu. 6 sierpnia 2019 r. SIN złożyła pismo do sądu, w którym kwestionuje działanie Facebooka i wskazuje, że skoro firma świadczy usługi po polsku, może też bronić swoich praw w tym języku. SIN wniosła, by sąd ocenił, czy Facebook zasadnie odmówił odbioru dokumentów sądowych.

Więcej o sprawie języka, w jakim toczy się proces

Pomimo że sąd nie rozstrzygnął jeszcze formalnie sporu dotyczącego języka postępowania, na początku stycznia pozew (wraz z postanowieniem zabezpieczającym) trafił do tłumacza. Prace nad przekładem 28-stronicowego dokumentu toczą się od ponad dwóch miesięcy. Dlatego SIN poprosiła, aby sąd ponaglił tłumacza. Dotychczasowy brak postępów w sprawie jest bowiem sukcesem strategii Facebooka, który zmierza do przedłużania postępowania z wykorzystaniem kwestii proceduralnych. Niestety, ze względu na aktualną sytuację epidemiologiczną ta strategia ma spore szanse powodzenia.

Więcej o aktualnym etapie sprawy

Zgodnie z postanowieniem wydanym przez referendarza sądowego SIN musi zapłacić 8 841,56 zł za tłumaczenie na język angielski pozwu oraz postanowienia o zabezpieczeniu powództwa. Sąd zdecydował też o doręczeniu przetłumaczonych dokumentów Facebookowi za pośrednictwem sądu w Irlandii.

Złożył również zażalenie na korzystne dla organizacji postanowienie sądu z czerwca 2019 r. Zakwestionował w nich to, że w sprawie doszło do bezprawnego naruszenia dóbr osobistych SIN, a także jurysdykcję polskiego sądu do rozpoznania sprawy. Wniósł o oddalenie powództwa SIN w całości oraz uchylenie postanowienia o zabezpieczeniu powództwa.

W związku z decyzją sądu zobowiązującą SIN do zapłaty kosztów tłumaczenia dokumentów zorganizowaliśmy zbiórkę i w rekordowym tempie udało się zebrać potrzebną kwotę. W ciągu 5 dni zebraliśmy 9 305,80 zł (koszty tłumaczenia to 8 841,56 zł). W imieniu Panoptykonu i SIN serdecznie dziękujemy wszystkim, którzy dołożyli się do naszej zbiórki i pomogli nam ją rozpromować.

Jednocześnie, ponieważ nadal uważamy, że w sporze z globalnymi korporacjami, takimi jak Facebook, każdy ma prawo domagać się swoich racji we własnym języku, złożyliśmy skargę na tę decyzję (przypominamy nasze argumenty). Jeśli sąd ją uwzględni, zebrane środki przeznaczymy na dalsze koszty związane z prowadzeniem sprawy.

W odpowiedzi odniosła się do argumentów przedstawionych przez Facebooka w zażaleniu, wnioskując do sądu o jego oddalenie w całości i utrzymanie pierwotnej decyzji z czerwca 2019 r.

Oznacza to, że:

  1. do czasu rozstrzygnięcia sprawy Facebook nie może usuwać stron, kont i grup prowadzonych na Facebooku i Instagramie przez SIN, ani blokować pojedynczych postów;
  2. Facebook musi zachować usunięte w 2018 r. i 2019 r. dane kont, stron i grup, tak aby w razie wygrania procesu przez SIN mogły one zostać przywrócone wraz z całą opublikowaną na nich treścią, komentarzami innych użytkowników, a także osobami je obserwującymi i lubiącymi;
  3. sprawa będzie rozpoznawana w Polsce na podstawie polskiego prawa.

Decyzja jest prawomocna (ostateczna i wiążąca dla Facebooka)!

Więcej o decyzji sądu

Tłumaczenia wymaga pozew oraz postanowienie o zabezpieczeniu powództwa (łączny koszt: 8 841,56 zł). Sąd nie uwzględnił skargi SIN na wydane wcześniej postanowienie referendarza sądowego zobowiązujące ją do zapłaty tych kosztów (przypominamy nasze argumenty). Postanowienie w tej kwestii jest ostateczne, ale sąd wskazał, że jeśli Facebook (dziś Meta) przegra cały proces, zapłacona kwota powinna zostać przez niego zwrócona SIN. Tymczasem koszty tłumaczenia opłaciliśmy ze środków, które zebraliśmy na ten cel w 2020 r. Raz jeszcze dziękujemy wszystkim, którzy wsparli naszą zbiórkę!

Stowarzyszenie (Gesellschaft für Freiheitsrechte – GFF) przedstawiło polskiemu sądowi orzecznictwo niemieckich sądów, w tym Trybunału Federalnego, w sprawach podobnych do SIN vs Facebook, tj. dotyczących arbitralnej cenzury w mediach społecznościowych. Według Trybunału platformy internetowe nie mogą arbitralnie blokować treści ani usuwać kont w mediach społecznościowych. Zablokowanym należy się uzasadnienie i prawo do odwołania. Co więcej, według niemieckich sądów co do zasady platforma, jeśli ma zamiar usunąć całe konto, powinna „wysłuchać” użytkownika przed dokonaniem blokady. Meta zawnioskowała o to, aby sąd odmówił przyjęcia dokumentu.

Więcej na temat opinii GFF

Sąd przesłuchał prezeskę SIN, która opowiedziała m.in. o działalności organizacji i negatywnych skutkach, które spowodowała zwłaszcza blokada głównej strony SIN na Facebooku. Sąd dopuścił także dowód z przesłuchania dwóch byłych członków zarządu organizacji, którzy w czasie, którego dotyczy sprawa, administrowali kontami SIN w mediach społecznościowych. Zostaną przesłuchani na kolejnej rozprawie w kwestii szczegółowych okoliczności zablokowania kont i grup SIN na Facebooku i Instagramie.

Więcej o przebiegu pierwszej rozprawy

Sąd zdążył jedynie przesłuchać świadka, który zarządzał kanałami SIN w mediach społecznościowych w chwili blokady kont na Facebooku w 2018 r. i Instagramie w 2019 r. Ostatni świadek w procesie, prezes SIN w 2018 r., zostanie przesłuchany na kolejnej, prawdopodobnie ostatniej, rozprawie, która odbędzie się 13 lutego 2024 r., o godz. 10.00 (sala 219). Wkrótce po niej spodziewamy się wyroku.

Więcej o przebiegu drugiej rozprawy

Sąd przesłuchał ostatniego świadka (prezesa SIN w czasie, gdy zablokowano im konto na Facebooku), zamknął przewód sądowy i ogłosił, że wyrok wyda za miesiąc.

Relacja z sądu

Wygraliśmy sprawę w pierwszej instancji! Sąd Okręgowy stwierdził, że blokując arbitralnie konta i grupy SIN, Meta naruszyła dobra osobiste tej organizacji. Sąd zobowiązał Metę do przywrócenia zablokowanych treści i publicznych przeprosin SIN.

Więcej o wyroku

Meta składa zażalenie na postanowienie ws. jurysdykcji polskiego sądu i wnosi apelację od wyroku do Sądu Apelacyjnego.

Analiza uzasadnienia wyroku sądu pierwszej instancji

Tak
Bohaterowie i sojusznicy
logo SIN

Społeczna Inicjatywa Narkopolityki (SIN) to organizacja pozarządowa, która od lat zajmuje się promowaniem wiedzy o szkodliwym działaniu środków psychoaktywnych oraz pomaganiem osobom, które zażywają takie substancje. Jej celem jest m.in. ograniczenie szkód powodowanych przez konsumpcję używek. W 2018 r. Facebook bez ostrzeżenia i przejrzystych wyjaśnień usunął strony i grupy SIN, uznając je za „niezgodne ze Standardami społeczności”. W styczniu 2019 r. w podobny sposób usunięto jedno z kont organizacji na (należącym do Facebooka) Instagramie.

7 maja 2019 r. SIN, wspierana przez Fundację Panoptykon, złożyła w sądzie pozew, w którym zażądała od Facebooka publicznych przeprosin oraz przywrócenia dostępu do usuniętych stron i kont.

logo Fundacji Panoptykon

Fundacja Panoptykon to organizacja pozarządowa, która zajmuje się ochroną prywatności i wolności. Panoptykon sprawdza, jak państwo i firmy wykorzystują dane obywateli, ujawnia nadużycia, walczy o lepsze prawo oraz uczy, jak świadomie poruszać się w coraz bardziej cyfrowym świecie.

W sprawie SIN vs Facebook Panoptykon postanowił wspomóc SIN, zapewniając jej wsparcie prawne oraz nagłaśniając sprawę.

Logo Kancelarii Wardyński i Wspólnicy

Kancelaria Wardyński i Wspólnicy to jedna z największych niezależnych kancelarii prawnych w Polsce, działająca od 1988 r. Kancelaria bierze udział w projektach non profit, a związani z nią prawnicy są aktywnymi członkami polskich i międzynarodowych organizacji branżowych.

W sprawie SIN vs Facebook, na prośbę fundacji Panoptykon, kancelaria reprezentuje SIN w sądzie oraz prowadzi sprawę pro bono. Pełnomocnikami SIN są adw. Łukasz Lasek i r. pr. Piotr Golędzinowski. Dziękujemy także za zaangażowanie w sprawę adw. Agnieszce Lisieckiej oraz Bartoszowi Troczyńskiemu.

logo Digital Freedom Fund

Digital Freedom Fund (DFF) wspiera strategiczne spory sądowe w obszarze praw cyfrowych w Europie. DFF zapewnia wsparcie finansowe i działa na rzecz współpracy pomiędzy aktywistami, którzy zajmują się ochroną praw cyfrowych, dążąc do skutecznego zagwarantowania praw człowieka w sieci.

DFF przyznał Panoptykonowi wsparcie finansowe na prowadzenie sprawy SIN vs Facebook.

Gesellschaft für Freiheitsrechte

Niemiecka organizacja społeczna Gesellschaft für Freiheitsrechte (GFF) złożyła w sprawie opinię przyjaciela sądu, w której podsumowała orzecznictwo m.in. Trybunału Federalnego (czyli niemieckiego odpowiednika Sądu Najwyższego) w sprawach dotyczących arbitralnej cenzury w mediach społecznościowych.

Nie