Artykuł LaMDA – wiele hałasu o nic? W kwietniu 2022 r. zatrudniony w Google inżynier Blake Lemoine w wewnętrznym 22.11.2022 Tekst
Artykuł Niesprawiedliwe, nieprzejrzyste i masowe Nierówności, a nie prywatność – tak chyba najlepiej można streścić książkę Cathy O’Neil pt. Broń matematycznej zagłady. W świecie „po Snowdenie” chyba zbyt często myślimy o tym, że odległe służby inwigilują nas i oglądają nasze nagie fotki. Tymczasem to, co już teraz robią maszyny i komputery, to wprowadzanie systematycznych podziałów na lepszych i gorszych oraz formalizowanie wielu społecznych nierówności. 28.09.2017 Tekst
Artykuł Panoptykon na Unsound Festival w Krakowie 10 października, podczas krakowskiego Unsound Festival, poprowadzimy dla Was warsztaty 24.09.2018 Tekst
Artykuł Instalacja artystyczna „Maska”. Odkryj swoją cyfrową twarz! Twarz to wizytówka, którą trudno ukryć. Dzięki unikalnemu rozmieszczeniu jej elementów technologie mogą nas identyfikować, a nawet rozpoznawać nastrój i emocje. Naszą twarzą interesuje się zarówno biznes, jak i państwo. Firmy chcą z niej wyczytać wiek, zasobność portfela i reakcje na bodźce, państwo – w imię bezpieczeństwa – porównać ją z wizerunkami poszukiwanych przestępców. 03.10.2019 Tekst
Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych zgromadzeń i demonstracji. Wyrok w sprawie systemów rozpoznawania twarzy przez walijską policję jest pierwszym tego typu wyrokiem na świecie i – choć wydany w Wielkiej Brytanii – może mieć wpływ na stosowanie tej technologii przez inne państwa. Sąd stwierdził, że system jest nielegalny m.in dlatego, że nie jest jasne, gdzie system może być stosowany i kto może trafić na listę osób do obserwowania. Kluczowe jest to, że sąd nie ograniczył się do stwierdzenia, że technologie automatycznego rozpoznawania twarzy naruszają wyłącznie prawo do prywatności, ale podkreślił, że naruszone jest także prawo do równego traktowania. Nie od dziś wiadomo chociażby, że algorytmy wykorzystywane przez „inteligentne” kamery, trenowane przede wszystkim na zdjęciach białych mężczyzn, o wiele częściej mylą się w przypadku kobiet czy osób o innym niż biały kolorze skóry, prowadząc do dyskryminacji. Sąd stwierdził, że policja nie zadbała o sprawdzenie, czy system nie powiela uprzedzeń. 13.08.2020 Tekst