Podcast 05.09.2019 2 min. czytania Dźwięk Image [Odcinek specjalny] „Przez lata nieświadomie karmiliśmy system danymi, informacjami o nas. Korzystaliśmy z systemów rozpoznawania twarzy na przejściach granicznych, nawet płaciliśmy w ten sposób. Pozwoliliśmy, aby w mieście pojawiło się coraz więcej kamer. Dziś mamy nauczkę, że wszystkie takie działania mogą być wykorzystane przeciwko obywatelom” – w ten sposób Johua Wong, lider protestów w Hongkongu, uzasadniał ataki na latarnie z systemem rozpoznawania twarzy. To, co w Hongkongu kojarzy się z kontrolą społeczną, przez 99% Chińczyków uznawane jest za trening społecznego zaufania. Skąd bierze się ten rozdźwięk – spytaliśmy dr Katarzynę Sarek, adiunkt w Instytucie Sinologii na Uniwersytecie Jagiellońskim. Na skróty: 00:01 Wprowadzenie 02:15 Co Europejczyk musi wiedzieć o Chinach? 08:30 Co Chińczyk powinien wiedzieć o chińskim systemie kontroli społecznej? 17:00 Od wyciągu z karty po kod DNA – co Chiny chcą wiedzieć o swoich obywatelach? 20:00 Prywatność po pekińsku 30:00 Internetowa lista czarnych owiec 38:00 Dlaczego Hongkong to nie Chiny? 45:00 Nie każdy rozwód jest możliwy... Odsłuchaj Do przeczytania i odsłuchania: Czy pod kamerami jest bezpieczniej? Rozmowa z Pawłem Waszkiewiczem TVN24: SCS staje się faktem. Ten system zmieni wszystko Atakują latarnie, bo obawiają się systemu rozpoznawania twarzy. Nieoczekiwany zwrot protestów w Hongkongu Audio file Maria Wróblewska Autorka Temat dyskryminacja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Dzień Kobiet – w Panoptykonie dzień jak co dzień Przymus badań ginekologicznych, rejestr ciąż, dyskryminujące algorytmy uczenia maszynowego, targetowanie reklam politycznych na kobiety w ciąży, aktywistki zatrzymywane przez służby, życie intymne kobiet pod obserwacją firm z branży reklamowej – działania związane z nadzorem nad kobietami to w… 08.03.2023 Tekst Podcast Algorytmy dyskryminują kobiety. Jak to zmienić? Rozmowa z Olgą Kozierowską Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. 09.03.2023 Dźwięk Artykuł Technologia bez „docelowego odbiorcy” [recenzja] Czy da się zebrać dane, które są pozbawione kontekstu i zebrane w sposób obiektywny? Kim jest „przeciętny użytkownik”? Jeśli interesujesz się zagadnieniem wykluczania przez nową technologię, to na pewno zainteresuje cię praca Kuby Piwowara. 20.10.2023 Tekst