Artykuł 08.06.2022 3 min. czytania Tekst Image Razem z 73 organizacjami wysłaliśmy dziś apel do Komisji Europejskiej w sprawie projektu przepisów dotyczących „zwalczania niegodziwego traktowania dzieci w celach seksualnych”. Projekt ma pozwolić na sprawniejsze wykrywanie wykorzystywania seksualnego dzieci w Internecie. Brzmiałoby to jak regulacja na tyle potrzebna, że już dawno powinna być wdrożona, gdyby nie jeden szczegół: przepisy mają umożliwiać skanowanie prywatnej komunikacji. W praktyce może to oznaczać koniec poufnej korespondencji: szyfrowania end-to-end i działania takich komunikatorów jak Signal. Smartfony będą naszymi osobistymi szpiegami w jeszcze większym wymiarze niż teraz. Obowiązek skanowania komunikacji Projekt Komisji nakłada na usługodawców (np. dostawców poczty elektronicznej czy czatów) obowiązek minimalizowania ryzyka, że ich infrastruktura posłuży do seksualnego wykorzystania dzieci. Jeśli organy państwa członkowskiego uznają, że firmy nie wyeliminowały ryzyka, mogą nakazać im podjęcie stosownych kroków, w tym np. skanowanie całej komunikacji. Dziś łapanie pedofila, jutro polowanie na sygnalistę Nieprawidłowości dostrzega 73 podmiotów z całej Europy, które wspólnie zwróciły się dziś do Komisji o zaprzestanie prac nad projektem. We wspólnym wystąpieniu przywołujemy głos brytyjskiego Royal College of Psychiatrists, zgodnie z którym ukryte przeglądanie korespondencji jest szkodliwe dla dzieci; znacznie skuteczniejsze są edukacja i ich upodmiotowienie. Wdrożenie przepisów w projektowanym kształcie sprawi, że furtka do nakładania obowiązku filtrowania treści zostanie uchylona. Podobnie było ze ściganiem terroryzmu, kiedy słuszny cel – podobny do ochrony dzieci – uświęcił środki. Mało kto protestował wtedy przeciwko kolejnym zmianom. Dziś metody służące walce z terroryzmem wykorzystywane są w normalnych śledztwach, a niekiedy nawet w sprawach o wykroczenia. Kto będzie skanował wiadomości? Oprócz możliwości zmiany celu skanowania oraz realnego zagrożenia dla poufności szyfrowanej komunikacji widzimy szereg dodatkowych problemów. Do rozpoznawania niegodziwych treści będzie wykorzystywana sztuczna inteligencja. Dlaczego nas to niepokoi? Jeśli AI fałszywie rozpozna treść obrazu, a będzie to zdjęcie dorosłego – trafi ono do organów ścigania. Oczywiście, wbrew intencji nadawcy i odbiorcy wiadomości. Realizacja nowych obowiązków i wdrożenie algorytmów będzie względnie proste dla cybergigantów. Inaczej będzie z lokalnymi dostawcami usług, co osłabi ich pozycję względem wielkich korporacji. Algorytm jest tak dobry, jak dobre są wprowadzone do niego dane. Kto nakarmi algorytmy do przeszukiwania treści danymi o molestowaniu seksualnym dzieci? Projekt zupełnie ten problem pomija. Dziś firmy będą skanować treści w poszukiwaniu obrazów wykorzystywania dzieci. Kiedy te metody będą już rozpowszechnione, co powstrzyma rządy i firmy przed skanowaniem wiadomości w poszukiwaniu politycznej opozycji lub sygnalistów, którzy chcą powiedzieć prawdę? Apelujemy do Komisji Europejskiej o wysłuchanie głosów obywateli: oddawanie wolności i prywatności dorosłych Europejczyków i Europejek pod pretekstem ochrony praw dzieci, uderza zarówno w dorosłych, jak i w same dzieci. Dominika Chachuła Autorka Wojciech KlickiWspółpraca Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Podcast Algorithms of Trauma 2. How Facebook Feeds on Your Fears Worried about your health? Facebook won’t let you forget. 07.12.2023 Dźwięk Artykuł EDPS, PE i OBWE apelują o ograniczenia dla reklamy śledzącej „Przetwarzanie danych najbardziej wrażliwych grup, np. dzieci, może mieć nieprzewidywalne skutki dla całego pokolenia” – pisze Europejski Inspektor Ochrony Danych Wojciech Wiewiórowski i domaga się wprowadzenia do aktu o usługach cyfrowych (DSA) ograniczeń dla śledzącej reklamy. 21.03.2022 Tekst