Podcast 25.02.2021 3 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wstęp03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz?13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach?18:20 Zdjęcie zdjęciu nierówne?25:00 Na co patrzy algorytm?39:45 Kto przygląda się naszej twarzy?55:20 Czy prawo nas obroni?01:00 Chrońmy równość, a nie prywatnośćDo poczytania i posłuchania:Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem KosińskimPanoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą ObywatelskąPanoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczejNature.com: Facial recognition technology can expose political orientation from naturalistic facial imagesJournal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial imagesThe Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gayBusinessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warnPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Propaganda na Facebooku: kto i jak chce wpływać na wyborców Wraz ze startem kampanii wyborczej ruszyła akcja „Kto cię namierzył”. Jej inicjatorzy zwracają uwagę na problem jawności działań propagandowych prowadzonych na Facebooku oraz związanych z nimi możliwości manipulacji. Zachęcają też użytkowników Facebooka do korzystania z wtyczki „Kto cię namierzył”… 13.08.2019 Tekst Artykuł Potrzebna pomoc! Musimy zapłacić 9 tys. zł, bo Facebook nie rozumie po polsku Po ponad roku bawienia się w kotka i myszkę z Facebookiem, który nie chciał przyjąć naszego pozwu po polsku, dostaliśmy decyzję sądu: Społeczna Inicjatywa Narkopolityki (organizacja, którą wspieramy w sporze sądowym po wielokrotnym blokowaniu jej kanałów społecznościowych przez platformę) musi… 16.11.2020 Tekst Artykuł Koniec z wszechwładzą platform internetowych? Komisja Europejska zaproponowała nowe regulacje Banalne wcześniej twierdzenie o tym, że nie wyobrażamy sobie życia bez Internetu nabrało nowej mocy po niedawnych awariach największych platform internetowych: Google’a i Facebooka. Rola, jaką platformy internetowe pełnią w codziennym funkcjonowaniu milionów Europejczyków i Europejek, stała się… 17.12.2020 Tekst