Podcast 25.02.2021 3 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wstęp03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz?13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach?18:20 Zdjęcie zdjęciu nierówne?25:00 Na co patrzy algorytm?39:45 Kto przygląda się naszej twarzy?55:20 Czy prawo nas obroni?01:00 Chrońmy równość, a nie prywatnośćDo poczytania i posłuchania:Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem KosińskimPanoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą ObywatelskąPanoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczejNature.com: Facial recognition technology can expose political orientation from naturalistic facial imagesJournal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial imagesThe Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gayBusinessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warnPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Czy TikTok jest bezpieczny? Rozmowa z Jakubem Olkiem Dane z rynku pokazują, że TikTok wciąga szybciej niż inne platformy serwujące treści wideo i skuteczniej trzyma uwagę. Efekt, który zachwyca inwestorów i media branżowe, intryguje dziennikarzy śledczych. Jak działa algorytmiczny silnik TikToka? Czy swoją skuteczność zawdzięcza m.in. wykrywaniu… 01.12.2022 Dźwięk Artykuł „Rosyjski” FaceApp nie jest groźniejszy od samego Facebooka Czy zaspokojenie ciekawości, jak możesz wyglądać za kilkadziesiąt lat, naprawdę jest warte tak dużo, by w zamian oddać dostęp do wrażliwych danych nieznanej aplikacji, do tego rosyjskiej? Maciej Kawecki z Ministerstwa Cyfryzacji przestrzega przed bezrefleksyjnym korzystaniem z usługi… 19.07.2019 Tekst Podcast Kulturalnie o technologii. Rozmowa z Jakubem Szamałkiem W popkulturze relacja człowieka i technologii to temat stale eksploatowany. Zwykle nie gramy w jednej drużynie. Skąd bierze się technofobia? Czego boimy się najbardziej? Czy groźna cyberprzyszłość jest już naszym udziałem? Zapraszamy na kolejny wakacyjny odcinek podcastu Panoptykon 4.0. … 01.08.2019 Dźwięk