Artykuł Europejska organizacja społeczna Statewatch opublikowała dane dotyczące… Europejska organizacja społeczna Statewatch opublikowała dane dotyczące wykorzystywania informacji zwartych w Systemie Informatycznym Schen 10.09.2014 Tekst
Artykuł Przestańcie traktować nasze ciała jak rządową własność!… „Przestańcie traktować nasze ciała jak rządową własność!” - między innymi w taki sposób Amerykanie protestują przeciwko tzw. nagim skanerom instalowanym na lotniskach. Amerykańska Agencja Bezpieczeństwa Transportu pozwoliła właśnie na składanie publicznych wniosków dotyczących tych urządzeń, dzięki czemu można dowiedzieć się, co naprawdę sądzą o nich obywatele. 23.04.2013 Tekst
Artykuł Twierdza Europa lepiej strzeżona? Większe uprawnienia agencji Frontex Parlament Europejski w Strasburgu poparł właśnie wynegocjowane z rządami wzmocnienie kompetencji unijnej agencji Frontex. Agencja ma za zadanie strzec granic UE przez nielegalną imigracją. 14.09.2011 Tekst
Artykuł Blaski i cienie życia watchdoga, czyli telepatyczny sukces Panoptykonu Życie watchdoga, który – tak jak my – ma ambicję skutecznie reagować na propozycje złego prawa, nie jest usłane różami. A to ministerstwo wyznaczy krótki termin konsultacji, a to jakiś projekt umknie naszej uwadze. Zdarzają się jednak sytuacje, kiedy odnosimy sukcesy – i to telepatyczne! 27.06.2018 Tekst
Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych zgromadzeń i demonstracji. Wyrok w sprawie systemów rozpoznawania twarzy przez walijską policję jest pierwszym tego typu wyrokiem na świecie i – choć wydany w Wielkiej Brytanii – może mieć wpływ na stosowanie tej technologii przez inne państwa. Sąd stwierdził, że system jest nielegalny m.in dlatego, że nie jest jasne, gdzie system może być stosowany i kto może trafić na listę osób do obserwowania. Kluczowe jest to, że sąd nie ograniczył się do stwierdzenia, że technologie automatycznego rozpoznawania twarzy naruszają wyłącznie prawo do prywatności, ale podkreślił, że naruszone jest także prawo do równego traktowania. Nie od dziś wiadomo chociażby, że algorytmy wykorzystywane przez „inteligentne” kamery, trenowane przede wszystkim na zdjęciach białych mężczyzn, o wiele częściej mylą się w przypadku kobiet czy osób o innym niż biały kolorze skóry, prowadząc do dyskryminacji. Sąd stwierdził, że policja nie zadbała o sprawdzenie, czy system nie powiela uprzedzeń. 13.08.2020 Tekst