Miękkie prawo czy wytrych do samowoli służb?

Artykuł
07.03.2018
7 min. czytania
Tekst
Image

Facebook, Twitter i inne portale będą musiały w ciągu godziny rozpatrzyć zgłoszenie służb dotyczące treści terrorystycznych. Czy będą miały realne szanse na rzetelną ocenę sytuacji? A może nowe rekomendacje Komisji Europejskiej zmierzają do konieczności usuwania z automatu każdej treści zgłoszonej przez służby, niezależnie od uzasadnienia?

Komisja Europejska wydała w czwartek rekomendacje dotyczące zwalczania nielegalnych treści w Internecie. To następny krok po opublikowanym we wrześniu w tej sprawie komunikacie, w którego konsultacjach braliśmy udział. Niestety, nasz apetyt na mądrą reformę nie został zaspokojony. Nie ma nic dziwnego w tym, że różne instytucje chcą regulować sieć, która stała się nie tylko miejscem wymiany poglądów czy kontaktu ze znajomymi, ale także atrakcyjną przestrzenią naruszeń prawa. Ostatnie miesiące pokazują jednak przywiązanie decydentów do „moderacji treści” jako eufemizmu dla cenzury, a także tendencję do zbytniej wiary w niezawodność technologii i niechęć do szukania kompleksowych rozwiązań problemów społecznych leżących u źródeł internetowych naruszeń.

Niebezpieczny wytrych dla służb

Polityka strachu ma się doskonale nie tylko w Polsce: Komisja Europejska forsuje w rekomendacjach specjalne działania obliczone na walkę z treściami terrorystycznymi w Internecie. Jednak nawet polski rząd – ewidentnie sprzyjający zwiększaniu uprawnień służb –nie wpadł jeszcze na pomysł przyznania służbom nowych uprawnień z pominięciem normalnego procesu legislacyjnego. Komisja tymczasem proponuje, żeby służby wysyłały zgłoszenia „treści terrorystycznych” takim serwisom jak Facebook bez uprzedniej zgody sądu. Internetowe firmy miałyby rozpatrywać zgłoszenie w ciągu godziny od jego otrzymania. Co więcej: samo pojęcie treści terrorystycznych nie zostało precyzyjnie zdefiniowane.

Rekomendacje nie są formalnie wiążące, ale co ma zrobić Facebook czy Twitter, a już dopiero lokalny portal, jeśli przyjdzie do nich ABW i, powołując się na dokument Komisji, powie: „To jest treść terrorystyczna, usuń ją”? Od firm, którym naturalnie zależy przede wszystkim na spokojnym prowadzeniu swojego biznesu, trudno oczekiwać heroicznej postawy i kwestionowania ustaleń wyspecjalizowanych służb. Komisja tymczasem naiwnie stawia firmy w roli wartowników, którzy będą rozważać każde zgłoszenie i stawiać czoła państwowym organom powołanym do walki z terroryzmem. To ogromne pole do nadużyć. Weźmy za przykład Katalonię – czy przypadkiem hiszpańskie służby nie uznałyby części działań tamtejszych separatystów za akty terrorystyczne i nie wykorzystywałyby nowego narzędzia do ograniczania dyskusji?

Komisja naiwnie robi z firm wartowników, którzy będą rozważać każde zgłoszenie i stawiać czoła państwowym organom powołanym do walki z terroryzmem.

Nasuwa się nam na myśl kolejne pytanie: co zrobi Facebook ze zgłoszeniami pochodzącymi nie od służb, a od zwykłych użytkowników? Priorytetowa ścieżka dla służb i związana z nią presja czasu spowoduje, że Facebook czy inny portal nie będzie żądał dodatkowych wyjaśnień, tylko automatycznie uzna zgłoszenie za wiarygodne i usunie treść bez względu na uzasadnienie. Jednak jeśli nielegalną treść zgłosi osoba prywatna, cała procedura z pewnością będzie trwała dużo dłużej niż godzinę, a zgłaszający będzie musiał przedstawić bardzo szczegółowe wyjaśnienia.

Bliższa współpraca służb i internetowych portali może przynieść dużo korzyści. Jednak ryzyko usuwania legalnych treści związane z tym, że w praktyce platformy w ciągu godziny nie będą w stanie rzetelnie zweryfikować zgłoszenia, powinno być zrównoważone poprzez inną formę zewnętrznej kontroli. Dla porównania: wprowadzona ustawą antyterrorystyczną możliwość blokowania treści mających związek ze zdarzeniem terrorystycznym – choć z gruntu nieskuteczna i nieproporcjonalna – jest obwarowana szeregiem wymogów. ABW musi w pierwszej kolejności uzyskać zgodę prokuratora generalnego. Następnie ABW składa wniosek do sądu, który – aby blokada doszła do skutku – musi wydać postanowienie w tej sprawie. Pewnie myślisz, że w sprawach związanych z terroryzmem nie ma czasu na te procedury? Spokojnie, polski ustawodawca to przewidział: w nagłych przypadkach ABW może wystąpić bezpośrednio do portalu. Nie mamy tu jednak do czynienia z zupełną samowolką – ABW musi również w takich sytuacjach posiadać zgodę prokuratora generalnego i jednocześnie zwrócić się do sądu o ocenę, czy żądanie było zasadne. Propozycja Komisji w zupełności pomija te gwarancje, co w rażący sposób osłabia kontrolę nad służbami.

Facebook i Twitter na straży prawa

Oprócz kontrowersyjnych uprawnień dla służb dokument Komisji to popis bezradności i umywania rąk. Według Komisji skutecznym sposobem na walkę z dostępnością online takich treści jak mowa nienawiści czy materiały naruszające prawa autorskie jest całkowite przerzucenie odpowiedzialności na platformy internetowe i uczynienie z nich nie tylko internetowej policji, ale także gwaranta naszych praw podstawowych, takich jak wolność słowa.

Stawianie Facebooka czy Twittera w roli prywatnych cenzorów to zagrożenie dla praw użytkowników i ucieczka od sedna problemu.

Komisja rekomenduje, żeby platformy internetowe aktywnie monitorowały i filtrowały przechowywane treści, także z użyciem automatycznych narzędzi. Taki pomysł stoi w sprzeczności nie tylko z orzecznictwem unijnego Trybunału Sprawiedliwości, który stwierdził, że nałożenie na platformy obowiązku generalnego monitorowania treści jest niezgodne z prawem unijnym, ale także tworzy mnóstwo ryzyk związanych z oddaniem w ręce internetowych firm decydowania o tym, jaka treść jest legalna, a jaka nie. Już teraz wiele firm z własnej inicjatywy stosuje różne narzędzia moderacji treści, np. ContentID na YouTubie, który automatyczne skanuje filmiki przed ich zamieszczeniem w serwisie. Co rusz słyszymy o sytuacjach, w których usuwane są treści zupełnie legalne, np. zgodne z zasadami dozwolonego użytku przewidzianymi w prawie autorskim. Stosowanie automatycznych narzędzi filtrujących wiąże się nie tylko z ryzykiem tzw. false positives, ale także nie ma wysokiej skuteczności w wyłapywaniu treści nielegalnych. Czasami nawet doświadczony moderator nie jest w stanie ze stuprocentową pewnością stwierdzić, że dana treść powinna zostać usunięta – wiele takich spraw kończy się przed sądem, których wyroki również bardzo często budzą kontrowersje. Słowem: zachęcanie Facebooka czy Twittera do przyjęcia na siebie zadania odsiewania ziarna od plew to ślepa uliczka.

Potrzebujemy reformy

Komisja w rekomendacjach pisze, że to, co nielegalne w rzeczywistości, jest także nielegalne w Internecie. Trudno się z tym nie zgodzić. Ale spróbujmy nieco odwrócić ten tok rozumowania. Skoro walka z nielegalnymi treściami w Internecie ma polegać na „patrolowaniu” sieci przez prywatne platformy internetowe, to czy w takim razie niedługo Komisja zaproponuje, żeby firmy zastąpiły policjantów, prokuraturę i sąd, które to podmioty zajmują się wykrywaniem i sądzeniem naruszeń poza światem wirtualnym?

Nie kwestionujemy tego, że dostępność nielegalnych treści w Internecie jest problemem, z którym należy się zmierzyć. Komisja jednak miała szerokie pole do popisu – od potrzebnej i długo wyczekiwanej reformy mechanizmu notice and takedown przewidzianego w dyrektywie o handlu elektronicznym do propozycji działań zmierzających do zwalczania problemów u źródeł, a nie po fakcie. Komisja tymczasem chowa głowę w piasek i straszy internetowych pośredników, że będzie musiała przyjąć restrykcyjne rozwiązania prawne, jeśli nie zaczną oni podejmować „dobrowolnych” działań.

Karolina Iwańska

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.