Podcast 18.06.2020 2 min. czytania Dźwięk Image Na szczeblu europejskim trwa właśnie dyskusja o wprowadzeniu zakazu masowego rozpoznawania twarzy. Jak działa technologia rozpoznawania twarzy? Gdzie jest używana? W jakim celu sięga po nią policja i z jakimi kosztami społecznymi się wiąże? Co możemy zyskać, a co stracić, jeżeli w porę nie wprowadzimy przepisów regulujących użycie tej technologii? Zapraszamy na rozmowę z dr Magdaleną Tomaszewską-Michalak, wykładowczynią w Katedrze Bezpieczeństwa Wewnętrznego Wydziału Nauk Politycznych i Studiów Międzynarodowych na Uniwersytecie Warszawskim, która specjalizuje się m.in. w prawnych i społecznych aspektach wykorzystania technologii biometrycznej, kryminalistyce oraz relacji pomiędzy bezpieczeństwem a prawem do prywatności.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ieNa skróty:00:01 Wprowadzenie02:30 O biometrii, weryfikacji, identyfikacji i katalogowaniu12:30 Po co policji nasza twarz?22:30 PR vs rzeczywistość. O demonstracjach pod kontrolą.27:00 Wpadki algorytmów, czyli dlaczego czarnoskóre kobiety mają najgorzej36:25 Jak bronić się przed biometrią, czyli włóż maskę i #zostańwdomu44:00 Czy prawo obroni nas przed nadużyciem ze strony władz?Do poczytania i posłuchania:Panoptykon: Apelujemy o zakaz masowego rozpoznawania twarzyPanoptykon: Czy pod kamerami jest bezpieczniej? Rozmowa z Pawłem Waszkiewiczem Panoptykon: „Rosyjski” FaceApp nie jest groźniejszy od samego FacebookaLubimy Czytać: Hello world. Jak być człowiekiem w epoce maszyn. Hannah Fry Podobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Maria Wróblewska Autorka Temat algorytmy bezpieczeństwo dyskryminacja monitoring wizyjny programy masowej inwigilacji Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Raport Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku Gdy dzieci pójdą do szkoły, pandemia się rozkręci – scroll – SPONSOROWANE Najlepsze kursy programowania w mieście! – scroll – Z OSTATNIEJ CHWILI: Stan wyjątkowy na granicy – scroll – SPONSOROWANE Śmiertelna choroba niszczy życie Stasia! Liczy się każdy dzień! – scroll – Aśce urodziło się dziecko –… 28.09.2021 Tekst Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Podcast Algorytmy dyskryminują kobiety. Jak to zmienić? Rozmowa z Olgą Kozierowską Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. 09.03.2023 Dźwięk