Podcast 25.02.2021 3 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wstęp03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz?13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach?18:20 Zdjęcie zdjęciu nierówne?25:00 Na co patrzy algorytm?39:45 Kto przygląda się naszej twarzy?55:20 Czy prawo nas obroni?01:00 Chrońmy równość, a nie prywatnośćDo poczytania i posłuchania:Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem KosińskimPanoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą ObywatelskąPanoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczejNature.com: Facial recognition technology can expose political orientation from naturalistic facial imagesJournal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial imagesThe Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gayBusinessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warnPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Facebook decyduje Podczas gdy my badamy rolę Facebooka w kampanii wyborczej, niektórzy politycy na własnej skórze odczuwają problemy związane z arbitralnymi decyzjami firmy. Jeden z kandydatów startujący w jesiennych wyborach parlamentarnych twierdzi, że otrzymał zakaz publikacji postów do 8 listopada, inny – ze… 03.10.2019 Tekst Artykuł Strategia Cyfryzacji Polski. Komentarz Panoptykonu Ryzykując brak okrągłych liczb na promocyjnych slajdach, wolałabym, żeby wicepremier odważnie nazwał problemy, jakie nowa strategia ma rozwiązać. 12.11.2024 Tekst Artykuł „Sztuczna inteligencja to pusty, nic nieznaczący slogan” – matematyczka o technologiach, wdrażaniu AI i dyskryminacji [wywiad] „Nie wiemy, czy narzędzia sztucznej inteligencji są bezpieczne, bo nie zastanawiamy się nad tym, jak to rzetelnie sprawdzić” – mówi Cathy O’Neil, matematyczka, autorka książek i badaczka algorytmów. Zapraszamy na wywiad dziennikarza Jakuba Dymka. 14.08.2024 Tekst