Podcast 25.02.2021 3 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wstęp03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz?13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach?18:20 Zdjęcie zdjęciu nierówne?25:00 Na co patrzy algorytm?39:45 Kto przygląda się naszej twarzy?55:20 Czy prawo nas obroni?01:00 Chrońmy równość, a nie prywatnośćDo poczytania i posłuchania:Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem KosińskimPanoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą ObywatelskąPanoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczejNature.com: Facial recognition technology can expose political orientation from naturalistic facial imagesJournal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial imagesThe Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gayBusinessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warnPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Artykuł Instalacja artystyczna „Maska”. Odkryj swoją cyfrową twarz! Twarz to wizytówka, którą trudno ukryć. Dzięki unikalnemu rozmieszczeniu jej elementów technologie mogą nas identyfikować, a nawet rozpoznawać nastrój i emocje. Naszą twarzą interesuje się zarówno biznes, jak i państwo. Firmy chcą z niej wyczytać wiek, zasobność portfela i reakcje na bodźce,… 03.10.2019 Tekst Artykuł Kto cię namierzył: dziękujemy i zapraszamy do zapisania się na raport! 6238 – tyle osób zainstalowało wtyczkę „Kto cię namierzył”, pomagając nam w badaniu mikrotargetowania politycznego w kampanii wyborczej do Sejmu i Senatu. Dziękujemy! 16.10.2019 Tekst