Podcast 05.09.2019 2 min. czytania Dźwięk Image [Odcinek specjalny] „Przez lata nieświadomie karmiliśmy system danymi, informacjami o nas. Korzystaliśmy z systemów rozpoznawania twarzy na przejściach granicznych, nawet płaciliśmy w ten sposób. Pozwoliliśmy, aby w mieście pojawiło się coraz więcej kamer. Dziś mamy nauczkę, że wszystkie takie działania mogą być wykorzystane przeciwko obywatelom” – w ten sposób Johua Wong, lider protestów w Hongkongu, uzasadniał ataki na latarnie z systemem rozpoznawania twarzy. To, co w Hongkongu kojarzy się z kontrolą społeczną, przez 99% Chińczyków uznawane jest za trening społecznego zaufania. Skąd bierze się ten rozdźwięk – spytaliśmy dr Katarzynę Sarek, adiunkt w Instytucie Sinologii na Uniwersytecie Jagiellońskim. Na skróty: 00:01 Wprowadzenie 02:15 Co Europejczyk musi wiedzieć o Chinach? 08:30 Co Chińczyk powinien wiedzieć o chińskim systemie kontroli społecznej? 17:00 Od wyciągu z karty po kod DNA – co Chiny chcą wiedzieć o swoich obywatelach? 20:00 Prywatność po pekińsku 30:00 Internetowa lista czarnych owiec 38:00 Dlaczego Hongkong to nie Chiny? 45:00 Nie każdy rozwód jest możliwy... Odsłuchaj Do przeczytania i odsłuchania: Czy pod kamerami jest bezpieczniej? Rozmowa z Pawłem Waszkiewiczem TVN24: SCS staje się faktem. Ten system zmieni wszystko Atakują latarnie, bo obawiają się systemu rozpoznawania twarzy. Nieoczekiwany zwrot protestów w Hongkongu Audio file Maria Wróblewska Autorka Temat dyskryminacja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Algorytmy dyskryminują kobiety. Jak to zmienić? Rozmowa z Olgą Kozierowską Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. 09.03.2023 Dźwięk Artykuł Technologia bez „docelowego odbiorcy” [recenzja] Czy da się zebrać dane, które są pozbawione kontekstu i zebrane w sposób obiektywny? Kim jest „przeciętny użytkownik”? Jeśli interesujesz się zagadnieniem wykluczania przez nową technologię, to na pewno zainteresuje cię praca Kuby Piwowara. 20.10.2023 Tekst Podcast Kiedy twarz staje się kluczem. Rozmowa z dr Magdaleną Tomaszewską-Michalak Na szczeblu europejskim trwa właśnie dyskusja o wprowadzeniu zakazu masowego rozpoznawania twarzy. Jak działa technologia rozpoznawania twarzy? Gdzie jest używana? W jakim celu sięga po nią policja i z jakimi kosztami społecznymi się wiąże? Co możemy zyskać, a co stracić, jeżeli w porę nie… 18.06.2020 Dźwięk