Miękkie prawo czy wytrych do samowoli służb?

Artykuł

Facebook, Twitter i inne portale będą musiały w ciągu godziny rozpatrzyć zgłoszenie służb dotyczące treści terrorystycznych. Czy będą miały realne szanse na rzetelną ocenę sytuacji? A może nowe rekomendacje Komisji Europejskiej zmierzają do konieczności usuwania z automatu każdej treści zgłoszonej przez służby, niezależnie od uzasadnienia?

Komisja Europejska wydała w czwartek rekomendacje dotyczące zwalczania nielegalnych treści w Internecie. To następny krok po opublikowanym we wrześniu w tej sprawie komunikacie, w którego konsultacjach braliśmy udział. Niestety, nasz apetyt na mądrą reformę nie został zaspokojony. Nie ma nic dziwnego w tym, że różne instytucje chcą regulować sieć, która stała się nie tylko miejscem wymiany poglądów czy kontaktu ze znajomymi, ale także atrakcyjną przestrzenią naruszeń prawa. Ostatnie miesiące pokazują jednak przywiązanie decydentów do „moderacji treści” jako eufemizmu dla cenzury, a także tendencję do zbytniej wiary w niezawodność technologii i niechęć do szukania kompleksowych rozwiązań problemów społecznych leżących u źródeł internetowych naruszeń.

Niebezpieczny wytrych dla służb

Polityka strachu ma się doskonale nie tylko w Polsce: Komisja Europejska forsuje w rekomendacjach specjalne działania obliczone na walkę z treściami terrorystycznymi w Internecie. Jednak nawet polski rząd – ewidentnie sprzyjający zwiększaniu uprawnień służb –nie wpadł jeszcze na pomysł przyznania służbom nowych uprawnień z pominięciem normalnego procesu legislacyjnego. Komisja tymczasem proponuje, żeby służby wysyłały zgłoszenia „treści terrorystycznych” takim serwisom jak Facebook bez uprzedniej zgody sądu. Internetowe firmy miałyby rozpatrywać zgłoszenie w ciągu godziny od jego otrzymania. Co więcej: samo pojęcie treści terrorystycznych nie zostało precyzyjnie zdefiniowane.

Rekomendacje nie są formalnie wiążące, ale co ma zrobić Facebook czy Twitter, a już dopiero lokalny portal, jeśli przyjdzie do nich ABW i, powołując się na dokument Komisji, powie: „To jest treść terrorystyczna, usuń ją”? Od firm, którym naturalnie zależy przede wszystkim na spokojnym prowadzeniu swojego biznesu, trudno oczekiwać heroicznej postawy i kwestionowania ustaleń wyspecjalizowanych służb. Komisja tymczasem naiwnie stawia firmy w roli wartowników, którzy będą rozważać każde zgłoszenie i stawiać czoła państwowym organom powołanym do walki z terroryzmem. To ogromne pole do nadużyć. Weźmy za przykład Katalonię – czy przypadkiem hiszpańskie służby nie uznałyby części działań tamtejszych separatystów za akty terrorystyczne i nie wykorzystywałyby nowego narzędzia do ograniczania dyskusji?

Komisja naiwnie robi z firm wartowników, którzy będą rozważać każde zgłoszenie i stawiać czoła państwowym organom powołanym do walki z terroryzmem.

Nasuwa się nam na myśl kolejne pytanie: co zrobi Facebook ze zgłoszeniami pochodzącymi nie od służb, a od zwykłych użytkowników? Priorytetowa ścieżka dla służb i związana z nią presja czasu spowoduje, że Facebook czy inny portal nie będzie żądał dodatkowych wyjaśnień, tylko automatycznie uzna zgłoszenie za wiarygodne i usunie treść bez względu na uzasadnienie. Jednak jeśli nielegalną treść zgłosi osoba prywatna, cała procedura z pewnością będzie trwała dużo dłużej niż godzinę, a zgłaszający będzie musiał przedstawić bardzo szczegółowe wyjaśnienia.

Bliższa współpraca służb i internetowych portali może przynieść dużo korzyści. Jednak ryzyko usuwania legalnych treści związane z tym, że w praktyce platformy w ciągu godziny nie będą w stanie rzetelnie zweryfikować zgłoszenia, powinno być zrównoważone poprzez inną formę zewnętrznej kontroli. Dla porównania: wprowadzona ustawą antyterrorystyczną możliwość blokowania treści mających związek ze zdarzeniem terrorystycznym – choć z gruntu nieskuteczna i nieproporcjonalna – jest obwarowana szeregiem wymogów. ABW musi w pierwszej kolejności uzyskać zgodę prokuratora generalnego. Następnie ABW składa wniosek do sądu, który – aby blokada doszła do skutku – musi wydać postanowienie w tej sprawie. Pewnie myślisz, że w sprawach związanych z terroryzmem nie ma czasu na te procedury? Spokojnie, polski ustawodawca to przewidział: w nagłych przypadkach ABW może wystąpić bezpośrednio do portalu. Nie mamy tu jednak do czynienia z zupełną samowolką – ABW musi również w takich sytuacjach posiadać zgodę prokuratora generalnego i jednocześnie zwrócić się do sądu o ocenę, czy żądanie było zasadne. Propozycja Komisji w zupełności pomija te gwarancje, co w rażący sposób osłabia kontrolę nad służbami.

Facebook i Twitter na straży prawa

Oprócz kontrowersyjnych uprawnień dla służb dokument Komisji to popis bezradności i umywania rąk. Według Komisji skutecznym sposobem na walkę z dostępnością online takich treści jak mowa nienawiści czy materiały naruszające prawa autorskie jest całkowite przerzucenie odpowiedzialności na platformy internetowe i uczynienie z nich nie tylko internetowej policji, ale także gwaranta naszych praw podstawowych, takich jak wolność słowa.

Stawianie Facebooka czy Twittera w roli prywatnych cenzorów to zagrożenie dla praw użytkowników i ucieczka od sedna problemu.

Komisja rekomenduje, żeby platformy internetowe aktywnie monitorowały i filtrowały przechowywane treści, także z użyciem automatycznych narzędzi. Taki pomysł stoi w sprzeczności nie tylko z orzecznictwem unijnego Trybunału Sprawiedliwości, który stwierdził, że nałożenie na platformy obowiązku generalnego monitorowania treści jest niezgodne z prawem unijnym, ale także tworzy mnóstwo ryzyk związanych z oddaniem w ręce internetowych firm decydowania o tym, jaka treść jest legalna, a jaka nie. Już teraz wiele firm z własnej inicjatywy stosuje różne narzędzia moderacji treści, np. ContentID na YouTubie, który automatyczne skanuje filmiki przed ich zamieszczeniem w serwisie. Co rusz słyszymy o sytuacjach, w których usuwane są treści zupełnie legalne, np. zgodne z zasadami dozwolonego użytku przewidzianymi w prawie autorskim. Stosowanie automatycznych narzędzi filtrujących wiąże się nie tylko z ryzykiem tzw. false positives, ale także nie ma wysokiej skuteczności w wyłapywaniu treści nielegalnych. Czasami nawet doświadczony moderator nie jest w stanie ze stuprocentową pewnością stwierdzić, że dana treść powinna zostać usunięta – wiele takich spraw kończy się przed sądem, których wyroki również bardzo często budzą kontrowersje. Słowem: zachęcanie Facebooka czy Twittera do przyjęcia na siebie zadania odsiewania ziarna od plew to ślepa uliczka.

Potrzebujemy reformy

Komisja w rekomendacjach pisze, że to, co nielegalne w rzeczywistości, jest także nielegalne w Internecie. Trudno się z tym nie zgodzić. Ale spróbujmy nieco odwrócić ten tok rozumowania. Skoro walka z nielegalnymi treściami w Internecie ma polegać na „patrolowaniu” sieci przez prywatne platformy internetowe, to czy w takim razie niedługo Komisja zaproponuje, żeby firmy zastąpiły policjantów, prokuraturę i sąd, które to podmioty zajmują się wykrywaniem i sądzeniem naruszeń poza światem wirtualnym?

Nie kwestionujemy tego, że dostępność nielegalnych treści w Internecie jest problemem, z którym należy się zmierzyć. Komisja jednak miała szerokie pole do popisu – od potrzebnej i długo wyczekiwanej reformy mechanizmu notice and takedown przewidzianego w dyrektywie o handlu elektronicznym do propozycji działań zmierzających do zwalczania problemów u źródeł, a nie po fakcie. Komisja tymczasem chowa głowę w piasek i straszy internetowych pośredników, że będzie musiała przyjąć restrykcyjne rozwiązania prawne, jeśli nie zaczną oni podejmować „dobrowolnych” działań.

Karolina Iwańska

Wspieraj naszą walkę o wolność w sieci! Wpłać darowiznę na konto Fundacji Panoptykon lub przekaż nam 1% swojego podatku (KRS: 0000327613).

Komentarze

To ja w takim razie żądam usunięcia całego Facebooka. To jak działają jest nielegalne i najlepiej usunąć całość. Uzasadnienie: Gorzkie ciasteczka.

MC też tworzy prawo miękkie - tu najświeższa wypowiedź MC jaką otrzymałam:

"Mikroprzedsiębiorstwa będą wyłączone z przestrzegania przepisów RODO jeśli zatrudniają mniej jak 9 pracowników z zastrzeżeniem, że nie przetwarzają danych na dużą skalę – wtedy przepisy będą dotyczyły także ich. Celem RODO jest odnalezienie złotego środka między interesem przedsiębiorców a interesem obywateli, a także ochroną prywatności obywateli a swobodą działalności gospodarczej, dlatego trudno o radykalność i restrykcyjność przepisów w tym zakresie. Chociaż RODO i nowa ustawa o ochronie danych o osobowych w sposób skokowy zwiększają zakres obowiązków przedsiębiorców i możliwość monitorowania przestrzegania zaleceń RODO przez organ nadzorczy."

Zwrócę tu uwagę - czym jest wytrych pod tytułem "duża skala"? Jeżeli są mniejsi od Google to już można uznać za małą skalę? Lub nieustanne wydzwanianie przez 5 osób ze spamem telefonicznym to też jest mała skala i WYŁĄCZA SIĘ Z PRZESTRZEGANIA RODO - CZYLI MOŻNA WSZYSTKO ROBIĆ BEZPRAWNIE?

Czy Fundacja Panoptykon może wskazać czy mamy już projekt aktu prawnego? - niestety nie wiem jak je wyszukiwać.

Mikroprzedsiębiorcy nie będą wyłączeni ze stosowania całego RODO, ale niektórych przepisów dotyczących np. obowiązku informacyjnego (dokładnie: art. 13 ust. 2 lit a-b oraz d-f, art. 15 ust. 3 i 4 oraz art. 19 RODO).

Nowa wersja projektu znajduje się tutaj: https://legislacja.rcl.gov.pl/projekt/12302950/katalog/12457689#12457689 (w zakładce Komisja Prawnicza)

Na naszej stronie w najbliższych dniach pojawi się tekst podsumowujący najważniejsze zmiany :)

Nawiasem mówiąc, przydatna wskazówka dotycząca rządowych projektów ustaw: na stronie Rządowego Centrum Legislacji (legislacja.rcl.gov.pl) można sobie założyć konto i obserwować interesujące nas projekty. Wtedy, jak tylko dodany zostanie jakiś nowy dokument (np. nowa wersja projektu), dostaniemy maila z powiadomieniem :-)

Dziękuję za link i informacje jak śledzić. Myślę, że i tak trzeba z tym walczyć. Dlaczego mikroprzedsiębiorstwa mają być zwolnione z wydania kopii zebranych danych? Dlaczego mają nie mieć odpowiednich formularzy? Czy czekamy by średnie przedsiębiorstwa się podzieliły i wymieniały się danymi nie informując o tym osoby której dane dotyczą?

Dodaj komentarz