Artykuł 08.06.2022 3 min. czytania Tekst Image Razem z 73 organizacjami wysłaliśmy dziś apel do Komisji Europejskiej w sprawie projektu przepisów dotyczących „zwalczania niegodziwego traktowania dzieci w celach seksualnych”. Projekt ma pozwolić na sprawniejsze wykrywanie wykorzystywania seksualnego dzieci w Internecie. Brzmiałoby to jak regulacja na tyle potrzebna, że już dawno powinna być wdrożona, gdyby nie jeden szczegół: przepisy mają umożliwiać skanowanie prywatnej komunikacji. W praktyce może to oznaczać koniec poufnej korespondencji: szyfrowania end-to-end i działania takich komunikatorów jak Signal. Smartfony będą naszymi osobistymi szpiegami w jeszcze większym wymiarze niż teraz. Obowiązek skanowania komunikacji Projekt Komisji nakłada na usługodawców (np. dostawców poczty elektronicznej czy czatów) obowiązek minimalizowania ryzyka, że ich infrastruktura posłuży do seksualnego wykorzystania dzieci. Jeśli organy państwa członkowskiego uznają, że firmy nie wyeliminowały ryzyka, mogą nakazać im podjęcie stosownych kroków, w tym np. skanowanie całej komunikacji. Dziś łapanie pedofila, jutro polowanie na sygnalistę Nieprawidłowości dostrzega 73 podmiotów z całej Europy, które wspólnie zwróciły się dziś do Komisji o zaprzestanie prac nad projektem. We wspólnym wystąpieniu przywołujemy głos brytyjskiego Royal College of Psychiatrists, zgodnie z którym ukryte przeglądanie korespondencji jest szkodliwe dla dzieci; znacznie skuteczniejsze są edukacja i ich upodmiotowienie. Wdrożenie przepisów w projektowanym kształcie sprawi, że furtka do nakładania obowiązku filtrowania treści zostanie uchylona. Podobnie było ze ściganiem terroryzmu, kiedy słuszny cel – podobny do ochrony dzieci – uświęcił środki. Mało kto protestował wtedy przeciwko kolejnym zmianom. Dziś metody służące walce z terroryzmem wykorzystywane są w normalnych śledztwach, a niekiedy nawet w sprawach o wykroczenia. Kto będzie skanował wiadomości? Oprócz możliwości zmiany celu skanowania oraz realnego zagrożenia dla poufności szyfrowanej komunikacji widzimy szereg dodatkowych problemów. Do rozpoznawania niegodziwych treści będzie wykorzystywana sztuczna inteligencja. Dlaczego nas to niepokoi? Jeśli AI fałszywie rozpozna treść obrazu, a będzie to zdjęcie dorosłego – trafi ono do organów ścigania. Oczywiście, wbrew intencji nadawcy i odbiorcy wiadomości. Realizacja nowych obowiązków i wdrożenie algorytmów będzie względnie proste dla cybergigantów. Inaczej będzie z lokalnymi dostawcami usług, co osłabi ich pozycję względem wielkich korporacji. Algorytm jest tak dobry, jak dobre są wprowadzone do niego dane. Kto nakarmi algorytmy do przeszukiwania treści danymi o molestowaniu seksualnym dzieci? Projekt zupełnie ten problem pomija. Dziś firmy będą skanować treści w poszukiwaniu obrazów wykorzystywania dzieci. Kiedy te metody będą już rozpowszechnione, co powstrzyma rządy i firmy przed skanowaniem wiadomości w poszukiwaniu politycznej opozycji lub sygnalistów, którzy chcą powiedzieć prawdę? Apelujemy do Komisji Europejskiej o wysłuchanie głosów obywateli: oddawanie wolności i prywatności dorosłych Europejczyków i Europejek pod pretekstem ochrony praw dzieci, uderza zarówno w dorosłych, jak i w same dzieci. Dominika Chachuła Autorka Wojciech KlickiWspółpraca Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Aplikacją zapłacisz za przejazd przez autostradę Od 1 grudnia opłaty za autostrady będziemy wnosić za pomocą aplikacji mobilnej powiązanej z systemem poboru opłat Krajowej Administracji Skarbowej. Mają zniknąć korki na bramkach. System e-TOLL ma być prosty, tańszy i wygodny w obsłudze, a do tego ma znajdować się w całości pod kontrolą Krajowej… 20.04.2021 Tekst Artykuł Polski rząd krytycznie o projekcie rozporządzenia UE dotyczącego blokowania treści o charakterze terrorystycznym Ministerstwo Cyfryzacji udostępniło nam stanowisko polskiego rządu na temat projektu unijnego rozporządzenia ws. zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym. 21.12.2018 Tekst Podcast Algorytmy dyskryminują kobiety. Jak to zmienić? Rozmowa z Olgą Kozierowską Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. 09.03.2023 Dźwięk