Podcast 25.02.2021 2 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo. Na skróty: 00:01 Wstęp 03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz? 13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach? 18:20 Zdjęcie zdjęciu nierówne? 25:00 Na co patrzy algorytm? 39:45 Kto przygląda się naszej twarzy? 55:20 Czy prawo nas obroni? 01:00 Chrońmy równość, a nie prywatność Do poczytania i posłuchania: Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim Panoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą Obywatelską Panoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczej Nature.com: Facial recognition technology can expose political orientation from naturalistic facial images Journal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial images The Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gay Businessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warn Podobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Rozumie czy nie? O Facebooku i języku polskim Niemal rok temu polscy użytkownicy Facebooka uzyskali możliwość odwołania się do krajowego punktu kontaktowego od decyzji o blokadzie treści opublikowanej na portalu. Do punktu trafiło do tej pory ok. 800 zgłoszeń. Dlaczego o tym przypominamy? Bo wszystkie te zgłoszenia firma rozpatrzyła po polsku… 11.10.2019 Tekst Artykuł Dość żerowania na użytkownikach. List otwarty 50 organizacji w sprawie cybergigantów Lista szkodliwych skutków ubocznych tego, jak dominujące platformy internetowe kształtują nasz obraz świata, jest długa. Żerowanie na słabościach użytkowników, negatywny wpływ na poczucie własnej wartości, dyskryminacja, manipulacja, promowanie toksycznych treści i intensyfikacja radykalizacji – to… 22.09.2021 Tekst Artykuł Digital Services Act, czyli jak uregulować globalne platformy internetowe Komisja Europejska rozpoczyna prace nad nową regulacją dotyczącą usług cyfrowych, o roboczej nazwie Digital Services Act (kodeks usług cyfrowych). O pracach w tym zakresie poinformowała nowa przewodnicząca Komisji Europejskiej Ursula von der Leyen. To więcej niż (od dawna oczekiwana) rewizja… 25.09.2019 Tekst