Artykuł 16.04.2024 11 min. czytania Tekst Image W połowie marca Ministerstwo Cyfryzacji przedstawiło projekt ustawy wdrażającej akt o usługach cyfrowych (AUC) w Polsce. Brakuje w nim jednak rozwiązań dotyczących „pozasądowych organów rozstrzygania sporów”. Bez nich w praktyce trudno będzie osiągnąć jeden z celów nowej regulacji, tj. rozwiązać problem tzw. „prywatnej cenzury” na dużych platformach społecznościowych.Dotychczas byliśmy bezradni, jeśli chodzi o arbitralne usuwanie treści i kont na tych platformach. Utworzenie przewidzianych w AUC pozasądowych organów, do których zablokowane osoby mogłyby zaskarżyć niesłuszne – ich zdaniem – decyzje moderacyjne, może to wreszcie zmienić. Żeby jednak organy te w ogóle powstały, potrzebne jest wsparcie państwa. Inaczej pozostaniemy skazani na łaskę i niełaskę firm technologicznych lub ewentualnie drogą, skomplikowaną i czasochłonną ścieżkę sądową.Czym są pozasądowe organy i dlaczego są ważne?Pomysł na pozasądowe organy jest nowatorski, ale prosty. Chodzi o to, żeby osoby, których treści lub konta platforma zablokowała (czy też ograniczyła ich widoczność lub możliwość zarabiania) mogły odwołać się do specjalnych zewnętrznych, organów, które zweryfikują słuszność takich decyzji. Do pozasądowych organów będą mogły poskarżyć się także osoby, które zgłosiły bezprawną treść platformie, jednak ta odmówiła jej usunięcia. Taki organ, będzie mógł np. wydać decyzję nakazującą przywrócenie niezasadnie zablokowanych treści albo usunięcie nielegalnych materiałów, na które serwis wcześniej nie zareagował.Każdy, kto kiedykolwiek nagle stracił konto na Facebooku czy kanał na YouTubie, wie że dotychczas platformy podejmowały decyzje moderacyjne w sposób nieprzejrzysty i arbitralny, a próby odwołania się często były skazane na porażkę. W wielu przypadkach zablokowane osoby nie wiedziały nawet, za co zostały „ukarane”. Trudno było odkręcić nawet w oczywisty sposób błędne decyzje, w których platforma źle „zinterpretowała” analizowany obraz lub kontekst danej wypowiedzi. W efekcie z platform społecznościowych z niejasnych przyczyn znikały różne zgodne z prawem materiały, w tym treści mające istotne publiczne znaczenie, jak np. relacje z protestów społecznych, fotografie historyczne, publikacje dokumentujące brutalność policji, sztuka czy satyra.Gra toczy się więc nie o to, czy możemy swobodnie publikować zdjęcia z wakacji dla znajomych, ale o dostęp do newsów ze świata, swobodne prowadzenie działalności gospodarczej czy debaty publicznej w XXI wieku. Badania wskazują też, że decyzje o usunięciu treści przez największe platformy systemowo uderzają częściej w osoby marginalizowane ze względu np. na kolor skóry, płeć czy pochodzenie społeczne. To nie tylko zagraża wolności słowa, ale też sprzyja dyskryminacji i tak już mniej słyszalnych w społeczeństwie głosów. Jednocześnie frustrację przeżywają osoby, które bezskutecznie próbują skłonić platformy do usuwania bezprawnych treści, a ich zgłoszenia pozostają bez odzewu. To częste doświadczenie m.in. organizacji walczących z hejtem i mową nienawiści.Zarówno dla tych, którzy stracili konto, jak i dla zgłaszających nielegalne treści, AUC jest szansą, żeby skuteczniej kwestionować ww. decyzje platform. Po pierwsze, nowe prawo wymaga od platform, aby uzasadniały swoje decyzje i zapewniły bardziej dostępną, przejrzystą i sprawiedliwą procedurę odwoławczą w ramach swoich serwisów (art. 16, 17, 20 AUC). Po drugie, wprowadza możliwość odwołania się na zewnątrz do niezależnych organów (art. 21 AUC). Mogą być nimi sądy zgodnie z przepisami prawa krajowego albo właśnie pozasądowe organy.Zaletą tych drugich jest (będzie) to, że mają być darmowe (lub dostępne za “nieznaczną opłatą”) dla użytkowników i użytkowniczek oraz działać szybko – co do zasady powinny wydawać swoje decyzje w ciągu 90 dni. To daje im ogromną przewagę nad ścieżką sądową. Widać to choćby na przykładzie wygranej niedawno sprawy SIN vs Facebook, w której Sąd Okręgowy w Warszawie uznał, że zablokowanie kont i grup Społecznej Inicjatywy Narkopolityki (SIN) na Facebooku i Instagramie było bezprawne. Sprawa ta z pokazała, że można wykorzystać istniejące w Polsce przepisy (w tym przypadku o ochronie dóbr osobistych) do skutecznego zakwestionowania blokady konta, ale… ciągnęła się niemal 5 lat. A to dopiero rozstrzygnięcie sądu pierwszej instancji. Sprawa wymagała też niemałej „inwestycji” ze strony SIN. Poza kilkuset złotową opłatą od pozwu, SIN poniosła niebagatelny koszt jego tłumaczenia na język angielski (prawie 9 tys. zł.) – po tym jak Meta odmówiła przyjęcia go w języku polskim.Nie ma więc wątpliwości, że powstanie niezależnych instytucji, przed którymi użytkownicy i użytkowniczki mogłyby sprawnie i bez nadmiernych kosztów oraz komplikacji weryfikować słuszność decyzji moderacyjnych na platformach internetowych, miałoby przełomowe znaczenie dla ochrony ich indywidualnych praw w sieci. Z punktu widzenia zwykłego użytkownika może to być nawet najważniejsza konkretna zmiana wynikająca z AUC, dzięki której poczułby, że regulacja ta rzeczywiście powstała po to, żeby go chronić i przywrócić mu podmiotowość w starciu z big tech.Pozasądowe organy są też niezbędnym ogniwem większego ekosystemu, który wprowadza AUC i który docelowo ma prowadzić do tego, że ogólnie wzrośnie jakość moderacji treści na platformach. Składają się na niego wspomniane wcześniej wewnętrzne standardy sprawiedliwej procedury, które muszą stosować same platformy, oraz mechanizm zewnętrznego, niezależnego nadzoru nad nimi. Nie mamy wątpliwości, że w tym drugim obszarze to pozasądowe organy odegrają w praktyce kluczową rolę – ze względu na swoją dużo większą dostępność niż postępowanie sądowe (przy czym zainicjowanie sprawy przez pozasądowym organem nie wyklucza na żadnym etapie wniesienia sprawy także do sądu). Platformy, wiedząc, że użytkownik będzie miał realną szansę rozliczyć je z podjętych decyzji, oraz licząc się z tym, że może to pociągnąć za sobą koszty, będą się „bardziej przykładać” do moderacji. W efekcie ich oceny staną się bardziej rzetelne i zmniejszy się liczba popełnianych błędów.Powstanie pozasądowych organów mogłoby też odciążyć – i tak przeładowane – sądy od konieczności badania spraw dotyczących moderacji w sieci. Mogłoby również ułatwić funkcjonowanie krajowego Koordynatora ds. usług cyfrowych (KUC) – organu, który ma czuwać nad stosowaniem AUC w Polsce, ale nie jest właściwy do weryfikowania słuszności indywidualnych decyzji moderacyjnych. Nie mamy jednak wątpliwości, że brak pozasądowych organów spowoduje, że osoby, które czują się poszkodowane takimi decyzjami, będą i tak próbowały kierować do KUC swoje skargi, nadwyrężając przy tym zasoby tej instytucji, których – patrząc na zaprezentowany projekt ustawy – może nie starczyć nawet na realizację jej właściwych zadań.Przekaż 1,5% podatku Fundacji Panoptykon.Pomóż kontrolować kontrolujących!KRS: 0000327613Jak mądrze wesprzeć powstawanie pozasądowych organów?AUC przewiduje, że pozasądowe organy mogą utworzyć przede wszystkim podmioty prywatne. Odbywa to się pod kontrolą państwa. Organy te muszą mieć bowiem odpowiednie kompetencje, zasoby oraz cechować się m.in. niezależnością, aby móc odpowiednio wypełniać swoje zadania. Dlatego muszą przejść proces certyfikacji przed KUC, który ma na celu sprawdzenie, czy dany podmiot spełnia wyżej wymienione warunki.Problem w tym, że sam AUC nie rozwiązuje wielu praktycznych kwestii związanych z funkcjonowaniem pozasądowych organów, w tym przede wszystkim kwestii ich stabilnego finansowania. A ta wydaje się kluczowa dla tego, aby ktokolwiek chciał takie ciała tworzyć. Nawet jeśli AUC przewiduje, że opłaty za rozstrzygnięcie sporu mają co do zasady ponosić platformy, obawiam się, że taki model może nie być wystarczający do tego, aby sfinansować pełne koszty utworzenia i działalności tych instytucji (np. aby zbudować odpowiednią infrastrukturę techniczną, przeszkolić ekspertów etc.). Jednocześnie, z uwagi na w pełni uzasadniony wymóg niezależności od biznesu, możliwe źródła finansowania są w przypadku tych organów mocno ograniczone.Co zatem proponujemy? Naszym zdaniem należy rozważyć zapewnienie wsparcia państwa dla tworzenia pozasądowych organów np. przez organizacje non-profit. Istnieje bowiem duże ryzyko, że bez takiego wsparcia (np. w formie funduszu czy grantów) organy te w rzeczywistości nie będą funkcjonować.Można też rozważyć powołanie pozasądowego organu przy KUC (AUC przewiduje, że organy te może tworzyć również państwo), opierając się na praktykach istniejących chociażby w obszarze systemów pozasądowego rozwiązywania sporów konsumenckich. Mając świadomość ograniczonych zasobów publicznych, które można by przeznaczyć na ten cel, warto wziąć pod uwagę możliwość wprowadzenia w prawie krajowym mechanizmu finansowania wsparcia dla pozasądowych organów, opartego m.in. na opłatach nadzorczych pobieranych od platform internetowych działających na lokalnym rynku, zgodnie z pkt. 111 AUC (z wyłączeniem małych podmiotów – analogicznie, jak w art. 19 AUC).Niestety w projekcie ustawy wdrażającej AUC w Polsce nie przewidziano żadnego tego typu rozwiązania. Mamy przy tym świadomość, że ze wsparciem państwa wiąże się ryzyko upolitycznienia. Naturalnie nikt nie chciałby powtórki pomysłu „Rady wolności słowa”, którą jeszcze niedawno próbowało forsować Ministerstwo Sprawiedliwości Zbigniewa Ziobry. Wierzymy jednak, że tworząc zasady działania takiego organu, można zapewnić gwarancje niezależności politycznej. Inspirację w tym zakresie można czerpać chociażby z rekomendacji międzynarodowych organizacji praw człowieka. Warto dodać też, że organ państwowy nie miałby „monopolu” na rozpoznawanie spraw dotyczących moderacji. Jeśli mimo wszystko powstałyby konkurencyjne organy prywatne, to użytkownik decydowałby, gdzie chce skierować swoją sprawę.Trzeba jednocześnie wspomnieć, że poza zasygnalizowanymi już wyzwaniami, pozasądowe organy mają też inne „wady”, które mogą osłabić skuteczność tego rozwiązania. Najważniejszą jest to, że ich decyzje w indywidualnych sprawach nie będą bezpośrednio wiążące dla platform internetowych. Tym niemniej – zwłaszcza w przypadku największych graczy – AUC przewiduje różne mechanizmy „zachęcające” do stosowania się do ich rozstrzygnięć. Platformy mają obowiązek angażować się w spory przed pozasądowymi organami w dobrej wierze, więc regularne ignorowanie ich decyzji może zostać uznane za naruszenie AUC. Jednocześnie ich respektowanie może być dla największych platform elementem obowiązkowego pokazania Komisji Europejskiej, że odpowiednio minimalizują systemowe ryzyka związane z działaniem systemów moderacji treści.To, czy platformy będą respektować decyzje pozasądowych organów niepokoi nas jednak w tej chwili mniej niż to, czy te ciała w ogóle powstaną. Byłoby szkoda, gdyby instytucje, które mają potencjał, by całkowicie zmienić reguły gry, jeśli chodzi o prywatną cenzurę w sieci, pozostały jedynie na papierze. Mamy nadzieję, że Ministerstwo Cyfryzacji znajdzie sposób, żeby do tego nie dopuścić.Tekst pierwotnie ukazał się 16 kwietnia 2024 r. w Dzienniku Gazecie Prawnej. Dorota Głowacka Autorka Anna ObemWspółpraca Linki i dokumenty Opinia Fundacji Panoptykon do projektu ustawy wdrażającej Akt o usługach cyfrowych w Polsce (12.04.2024)325.17 KBpdf Image Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat prywatna cenzura media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Zapraszamy na panel: Rola mediów społecznościowych w demokracji [czwartek, 25.03, godz. 17:30] Zapraszamy na dyskusję pt. Rola mediów społecznościowych w demokracji (czwartek 25.03, godz. 17:30). W dyskusji udział wezmą: Anna Roszman (Odsłuch społeczny) Katarzyna Szymielewicz (Fundacja Panoptykon) Adrian Zandberg (Poseł na Sejm RP, Lewica Razem) Moderacja: Adam Jaśkow | Centrum im.… 25.03.2021 Tekst Artykuł Facebook obiecuje większą przejrzystość w blokowaniu treści W listopadzie razem z ponad 70 organizacjami z całego świata pisaliśmy do Marka Zuckerberga w sprawie wzmocnienia uprawnień użytkowników, którzy zostali zablokowani na Facebooku. Portal często usuwa treści w nieprzejrzysty i mocno arbitralny sposób, a użytkownicy nie mają realnej możliwości, aby… 10.01.2019 Tekst Artykuł Reklama polityczna na Facebooku – kosmetyka czy realna zmiana Wiodące platformy technologiczne zapowiadają ograniczenie, a nawet zupełną rezygnację z reklam politycznych. Jak interpretować te ruchy? Czy to początek końca tzw. mikrotargetowania w służbie sztabów wyborczych, które wypromowała afera z udziałem Facebooka i Cambridge Analytica? Czy może to tylko… 12.12.2019 Tekst
Opinia Fundacji Panoptykon do projektu ustawy wdrażającej Akt o usługach cyfrowych w Polsce (12.04.2024)325.17 KBpdf