Artykuł 08.11.2018 5 min. czytania Tekst Image Prywatyzacja walki z terroryzmem, a jednocześnie wzmocnienie prywatnej cenzury w sieci – do takich skutków mogą prowadzić rozwiązania zaproponowane ostatnio przez Komisję Europejską, które skomentowaliśmy na prośbę Ministerstwa Cyfryzacji. A to jeszcze nie wszystko. Przedstawiona w projekcie definicja treści o charakterze terrorystycznym jest tak szeroka, że ofiarą cenzury mogą paść także wypowiedzi, z którymi nie wiąże się żadne realne zagrożenie. Państwo oddaje kontrolę Ministerstwo Cyfryzacji zakończyło właśnie konsultacje stanowiska Rzeczpospolitej Polskiej w sprawie przygotowanego przez Komisję projektu rozporządzenia ws. zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym (o jego założeniach pisaliśmy wcześniej). Projekt wprowadza zasady usuwania lub blokowania treści o charakterze terrorystycznym przez dostawców usług hostingowych (czyli np. media społecznościowe, ale także inne portale, które umożliwiają dodawane treści przez użytkowników, choćby w formie komentarzy). Komisja zaproponowała dwie ścieżki eliminowania takich materiałów. Po pierwsze hostingodawcy mają być zobowiązani do usuwania lub blokowania treści na mocy nakazu wydawanego przez uprawniony organ publiczny. Takie rozwiązanie nie budzi większych wątpliwości, pod warunkiem że blokowanie/usuwanie będzie odbywało się z zachowaniem odpowiednich gwarancji – pod kontrolą sądu (czego projekt niestety wprost nie precyzuje) i zgodnie ze standardami sprawiedliwego procesu (szczęśliwie projekt przewiduje tu procedurę odwoławczą). Bardziej niepokoi natomiast druga, równoległa procedura usuwania lub blokowania treści. Zgodnie z projektem organy państwa powołane do wykrywania i identyfikacji treści o charakterze terrorystycznym (czyli np. w polskich warunkach Agencja Bezpieczeństwa Wewnętrznego) mogłyby wysłać niewiążące zgłoszenie dotyczące danego materiału do administratora portalu. Administrator następnie sam dokonywałby oceny zgłoszonej treści w oparciu o własny regulamin i ewentualnie decydował o jej zablokowaniu. Potem musiałby poinformować o podjętych działaniach organ zgłaszający. Autor zablokowanej treści mógłby się odwołać od decyzji portalu, ale tylko do jego administratora, na drodze wewnętrznej – nie przewidziano tu żadnego mechanizmu zewnętrznej, niezależnej kontroli. Państwo, zgłaszając firmom treści do usunięcia, nie ponosi za te działania żadnej odpowiedzialności i przekazuje swoją władzę w ręce firm. Taka procedura oznacza, że organ państwa, który „jedynie” sygnalizuje problem administratorowi portalu, nie ponosi żadnej odpowiedzialności za działania podjęte na skutek takiego zgłoszenia. Stawia jednocześnie prywatne firmy w roli arbitrów dozwolonych treści, choć podmioty te mają znacznie mniejsze kompetencje (niż np. ABW) do rzetelnej analizy zgłaszanych materiałów. Z jednej strony jest to więc niebezpieczny przejaw prywatyzacji walki z terroryzmem, która to walka należy do zadań państwa i odpowiedzialność za nią nie powinna być w żadnej mierze delegowana na podmioty prywatne. Z drugiej strony państwo, stosując niewiążący tryb, oddaje kontrolę nad kawałkiem wolności w sieci prywatnym podmiotom, które często działają w sposób nieprzejrzysty, arbitralny, kierując się własnym interesem ekonomicznym i bez odpowiedniego poszanowania praw użytkowników. Wyobraźmy sobie teraz, że zidentyfikowano w sieci treść o charakterze terrorystycznym. Aby ją usunąć lub zablokować, organy państwa będą mogły zastosować albo obwarowaną gwarancjami i formalnościami twardą procedurę zakończoną wydaniem wiążącego nakazu (obarczoną ryzykiem postępowania odwoławczego), albo wygodniejszą opcję – czyli wysłanie zgłoszenia i przerzucenie decyzji (wraz z odpowiedzialnością) na portal. Którą ścieżkę będą chętniej wybierać? Terroryzm czy dozwolona krytyka? A może satyra? W skrajnej sytuacji można sobie wręcz wyobrazić scenariusz, w którym niewiążący tryb, pod pretekstem walki z treściami o charakterze terrorystycznymi, będzie nadużywany przez organy państwa do ograniczania dostępności w Internecie innych niepożądanych materiałów, np. wypowiedzi krytycznych wobec władzy publicznej. Jest to realne ryzyko, biorąc pod uwagę szeroką definicję treści o charakterze terrorystycznym zawartą w projekcie rozporządzenia. Jest nią m.in. „zachęcanie do przyczyniania się do przestępstw terrorystycznych lub propagowanie działalności grupy terrorystycznej, w szczególności poprzez zachęcenie do udziału w grupie terrorystycznej”. Definicją treści o charakterze terrorystycznym objęte jest również podżeganie i propagowanie (w tym poprzez gloryfikowanie) przestępstw o charakterze terrorystycznym. Warunkiem zablokowania treści nie jest natomiast to, że jej dalsze rozpowszechnianie może stanowić realne zagrożenie dla bezpieczeństwa. Tak szeroka definicja, nawet jeśli nie będzie wykorzystywana do celów politycznych, sprzyja nadgorliwemu blokowaniu treści ze szkodą dla interesu publicznego. Niedawno głośno było o nieuzasadnionym blokowaniu w mediach społecznościowych materiałów dokumentujących zbrodnie wojenne i naruszenia praw człowieka w Syrii, które omyłkowo zakwalifikowano jako mające związek z terroryzmem. Rozporządzenie w obecnym kształcie może spowodować wzrost liczby takich przypadków – tym bardziej że projekt przewiduje (w pewnych sytuacjach obowiązkowe) stosowanie tzw. proaktywnych środków kontroli treści przez hostingodawców (czyli np. automatycznych filtrów), które stwarzają szczególne ryzyko nadmiernego blokowania. Projekt zawiera szereg gwarancji, które mają minimalizować zagrożenia dla praw podstawowych, np. transparentność blokowania treści przez portale czy obowiązek uzasadniania podejmowanych decyzji i informowania autora treści o jej zablokowaniu. Z naszej perspektywy w tym przypadku kluczowe jest jednak zawężenie definicji treści, które mogą być zablokowane, i rezygnacja z niewiążącego trybu zgłaszania ich portalom do usunięcia. Mamy nadzieję, że polski rząd przychyli się do tego stanowiska w ramach konsultacji z Komisją Europejską. Dorota Głowacka Dorota Głowacka Autorka Temat wolność słowa antyterroryzm media społecznościowe służby Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Kogo chroni policja? Dyskusja online Masowe legitymowanie, groźby, nieuzasadnione i bezkarne nadużywanie siły wobec protestujących pokazują, że przemoc w polskiej policji jest problemem systemowym. Z raportów organizacji praw człowieka wyłania się szerokie spektrum represyjnych praktyk stosowanych w celu zastraszenia niepokornych. 28.11.2020 Tekst Podcast Debata: Big tech na wojnie. Rozmowa z Krzysztofem Izdebskim i Bartoszem Paszczą Rosyjska wojna propagandowa zaczęła się na długo przed militarną agresją. Od tygodnia obserwujemy potworny spektakl przemocy, która przecież wyrosła na nacjonalistycznej i ksenofobicznej narracji, jaką rosyjskie władze i kontrolowane przez nie media budowały przynajmniej od 2014 r. Jednym z… 03.03.2022 Dźwięk Podcast Polskie wybory na Facebooku. Rozmowa z Dominikiem Batorskim, Krzysztofem Izdebskim i Katarzyną Szymielewicz Kto (naprawdę) cię namierzył? Facebook w polskiej kampanii wyborczej. W roli gości jego autorzy: Dominik Batorski, adiunkt w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego na Uniwersytecie Warszawskim i współzałożyciel firmy Sotrender, Krzysztof Izdebski, dyrektor programowy… 30.04.2020 Dźwięk