Artykuł Europejska organizacja społeczna Statewatch opublikowała dane dotyczące… Europejska organizacja społeczna Statewatch opublikowała dane dotyczące wykorzystywania informacji zwartych w Systemie Informatycznym Schen 10.09.2014 Tekst
Artykuł Przestańcie traktować nasze ciała jak rządową własność!… „Przestańcie traktować nasze ciała jak rządową własność!” - między innymi w taki sposób Amerykanie protestują przeciwko tzw. nagim skanerom instalowanym na lotniskach. Amerykańska Agencja Bezpieczeństwa Transportu pozwoliła właśnie na składanie publicznych wniosków dotyczących tych urządzeń, dzięki czemu można dowiedzieć się, co naprawdę sądzą o nich obywatele. 23.04.2013 Tekst
Artykuł Twierdza Europa lepiej strzeżona? Większe uprawnienia agencji Frontex Parlament Europejski w Strasburgu poparł właśnie wynegocjowane z rządami wzmocnienie kompetencji unijnej agencji Frontex. Agencja ma za zadanie strzec granic UE przez nielegalną imigracją. 14.09.2011 Tekst
Artykuł Czy sprawa przeciwko Facebookowi w końcu przyspieszy? Wspierana przez Panoptykon Społeczna Inicjatywa Narkopolityki SIN 10 miesięcy temu złożyła pozew przeciwko Facebookowi za arbitralne blokowanie jej profilu. Mimo upływu niemal roku sprawa wciąż jest na wstępnym etapie. Dlatego do sądu trafiła właśnie prośba o ponaglenie tłumacza, który od ponad dwóch miesięcy przekłada nasz pozew na angielski. 16.03.2020 Tekst
Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych zgromadzeń i demonstracji. Wyrok w sprawie systemów rozpoznawania twarzy przez walijską policję jest pierwszym tego typu wyrokiem na świecie i – choć wydany w Wielkiej Brytanii – może mieć wpływ na stosowanie tej technologii przez inne państwa. Sąd stwierdził, że system jest nielegalny m.in dlatego, że nie jest jasne, gdzie system może być stosowany i kto może trafić na listę osób do obserwowania. Kluczowe jest to, że sąd nie ograniczył się do stwierdzenia, że technologie automatycznego rozpoznawania twarzy naruszają wyłącznie prawo do prywatności, ale podkreślił, że naruszone jest także prawo do równego traktowania. Nie od dziś wiadomo chociażby, że algorytmy wykorzystywane przez „inteligentne” kamery, trenowane przede wszystkim na zdjęciach białych mężczyzn, o wiele częściej mylą się w przypadku kobiet czy osób o innym niż biały kolorze skóry, prowadząc do dyskryminacji. Sąd stwierdził, że policja nie zadbała o sprawdzenie, czy system nie powiela uprzedzeń. 13.08.2020 Tekst