Podcast 25.02.2021 3 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wstęp03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz?13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach?18:20 Zdjęcie zdjęciu nierówne?25:00 Na co patrzy algorytm?39:45 Kto przygląda się naszej twarzy?55:20 Czy prawo nas obroni?01:00 Chrońmy równość, a nie prywatnośćDo poczytania i posłuchania:Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem KosińskimPanoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą ObywatelskąPanoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczejNature.com: Facial recognition technology can expose political orientation from naturalistic facial imagesJournal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial imagesThe Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gayBusinessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warnPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł „Kategoryczne nie” Zofii Klepackiej, czyli co wolno w sieci i dlaczego (prywatna) cenzura jest zła Wiedzieliście, co Zofia Klepacka sądzi o prawach osób LGBT+? Do wczoraj my też nie, ale to się zmieniło dzięki nałożeniu na jej kontrowersyjną wypowiedź bana przez Facebooka. W tej sprawie po raz kolejny możemy obserwować zapasy między wolnością słowa a walką z hejtem w sieci. 12.03.2019 Tekst Artykuł Kto (i dlaczego) powinien bać się TikToka? Jeszcze niedawno TikTok budził skojarzenia przede wszystkim z niewinnymi filmikami z tańczącymi ludźmi, apetycznym jedzeniem czy uroczymi zwierzątkami. Dziś dyskusja na temat serwisu przybrała znacznie poważniejszy ton. Na blokadęograniczenia w korzystaniu z aplikacji ze względu m.in. na… 30.01.2023 Tekst Podcast Uzależnienie od interfejsu. Rozmowa z dr. Wojciechem Glacem i dr. Jakubem Kusiem W ramach pierwszego listopadowego podcastu Katarzyna Szymielewicz przeprowadziła dwie rozmowy ze specjalistami, w których szukała odpowiedzi na pytanie, jakie mechanizmy utrzymują uwagę użytkowników w mediach społecznościowych. 04.11.2021 Dźwięk