Artykuł LaMDA – wiele hałasu o nic? W kwietniu 2022 r. zatrudniony w Google inżynier Blake Lemoine w wewnętrznym 22.11.2022 Tekst
Artykuł Na panoptykonowej kozetce. Po spotkaniu z okazji Freedom Not Fear Day Za nami Freedom Not Fear Day. Z tej okazji Panoptykon po raz kolejny zaprosił do rozmowy o strachach, które nawiedzają nas od czasów zamachów 11 września. 19.09.2017 Tekst
Artykuł Kontrolujemy kontrolujących. Przeczytaj raport na 5-lecie i wesprzyj nasze działania! Za nami piąte urodziny Fundacji Panoptykon. Nasze działania, ważne wydarzenia, w których braliśmy udział, sukcesy i plany na kolejne lata przedstawiamy Wam w specjalnym raporcie. Mamy nadzieję, że zachęceni lekturą będziecie wspierać nasze działania tak jak do tej pory. 17.06.2014 Tekst
Artykuł Instalacja artystyczna „Maska”. Odkryj swoją cyfrową twarz! Twarz to wizytówka, którą trudno ukryć. Dzięki unikalnemu rozmieszczeniu jej elementów technologie mogą nas identyfikować, a nawet rozpoznawać nastrój i emocje. Naszą twarzą interesuje się zarówno biznes, jak i państwo. Firmy chcą z niej wyczytać wiek, zasobność portfela i reakcje na bodźce, państwo – w imię bezpieczeństwa – porównać ją z wizerunkami poszukiwanych przestępców. 03.10.2019 Tekst
Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych zgromadzeń i demonstracji. Wyrok w sprawie systemów rozpoznawania twarzy przez walijską policję jest pierwszym tego typu wyrokiem na świecie i – choć wydany w Wielkiej Brytanii – może mieć wpływ na stosowanie tej technologii przez inne państwa. Sąd stwierdził, że system jest nielegalny m.in dlatego, że nie jest jasne, gdzie system może być stosowany i kto może trafić na listę osób do obserwowania. Kluczowe jest to, że sąd nie ograniczył się do stwierdzenia, że technologie automatycznego rozpoznawania twarzy naruszają wyłącznie prawo do prywatności, ale podkreślił, że naruszone jest także prawo do równego traktowania. Nie od dziś wiadomo chociażby, że algorytmy wykorzystywane przez „inteligentne” kamery, trenowane przede wszystkim na zdjęciach białych mężczyzn, o wiele częściej mylą się w przypadku kobiet czy osób o innym niż biały kolorze skóry, prowadząc do dyskryminacji. Sąd stwierdził, że policja nie zadbała o sprawdzenie, czy system nie powiela uprzedzeń. 13.08.2020 Tekst