Koniec poufnej komunikacji? List 73 organizacji przeciwko filtrowaniu czatów

Artykuł
08.06.2022
3 min. czytania
Tekst
Image

Razem z 73 organizacjami wysłaliśmy dziś apel do Komisji Europejskiej w sprawie projektu przepisów dotyczących „zwalczania niegodziwego traktowania dzieci w celach seksualnych”. Projekt ma pozwolić na sprawniejsze wykrywanie wykorzystywania seksualnego dzieci w Internecie. Brzmiałoby to jak regulacja na tyle potrzebna, że już dawno powinna być wdrożona, gdyby nie jeden szczegół: przepisy mają umożliwiać skanowanie prywatnej komunikacji.

W praktyce może to oznaczać koniec poufnej korespondencji: szyfrowania end-to-end i działania takich komunikatorów jak Signal. Smartfony będą naszymi osobistymi szpiegami w jeszcze większym wymiarze niż teraz.

Obowiązek skanowania komunikacji

Projekt Komisji nakłada na usługodawców (np. dostawców poczty elektronicznej czy czatów) obowiązek minimalizowania ryzyka, że ich infrastruktura posłuży do seksualnego wykorzystania dzieci. Jeśli organy państwa członkowskiego uznają, że firmy nie wyeliminowały ryzyka, mogą nakazać im podjęcie stosownych kroków, w tym np. skanowanie całej komunikacji.

Dziś łapanie pedofila, jutro polowanie na sygnalistę

Nieprawidłowości dostrzega 73 podmiotów z całej Europy, które wspólnie zwróciły się dziś do Komisji o zaprzestanie prac nad projektem. We wspólnym wystąpieniu przywołujemy głos brytyjskiego Royal College of Psychiatrists, zgodnie z którym ukryte przeglądanie korespondencji jest szkodliwe dla dzieci; znacznie skuteczniejsze są edukacja i ich upodmiotowienie.

Wdrożenie przepisów w projektowanym kształcie sprawi, że furtka do nakładania obowiązku filtrowania treści zostanie uchylona. Podobnie było ze ściganiem terroryzmu, kiedy słuszny cel – podobny do ochrony dzieci – uświęcił środki. Mało kto protestował wtedy przeciwko kolejnym zmianom. Dziś metody służące walce z terroryzmem wykorzystywane są w normalnych śledztwach, a niekiedy nawet w sprawach o wykroczenia.

Kto będzie skanował wiadomości?

Oprócz możliwości zmiany celu skanowania oraz realnego zagrożenia dla poufności szyfrowanej komunikacji widzimy szereg dodatkowych problemów. Do rozpoznawania niegodziwych treści będzie wykorzystywana sztuczna inteligencja. Dlaczego nas to niepokoi?

  1. Jeśli AI fałszywie rozpozna treść obrazu, a będzie to zdjęcie dorosłego – trafi ono do organów ścigania. Oczywiście, wbrew intencji nadawcy i odbiorcy wiadomości.
  2. Realizacja nowych obowiązków i wdrożenie algorytmów będzie względnie proste dla cybergigantów. Inaczej będzie z lokalnymi dostawcami usług, co osłabi ich pozycję względem wielkich korporacji.
  3. Algorytm jest tak dobry, jak dobre są wprowadzone do niego dane. Kto nakarmi algorytmy do przeszukiwania treści danymi o molestowaniu seksualnym dzieci? Projekt zupełnie ten problem pomija.

Dziś firmy będą skanować treści w poszukiwaniu obrazów wykorzystywania dzieci. Kiedy te metody będą już rozpowszechnione, co powstrzyma rządy i firmy przed skanowaniem wiadomości w poszukiwaniu politycznej opozycji lub sygnalistów, którzy chcą powiedzieć prawdę? Apelujemy do Komisji Europejskiej o wysłuchanie głosów obywateli: oddawanie wolności i prywatności dorosłych Europejczyków i Europejek pod pretekstem ochrony praw dzieci, uderza zarówno w dorosłych, jak i w same dzieci.

Wojciech Klicki
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.