Podcast 25.02.2021 3 min. czytania Dźwięk Image Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wstęp03:43 Czy z orientacji politycznej da się wyczytać na kogo głosujesz?13:05 Cechy osobowości czy owal twarzy? Co więcej powie o twoich wyborach?18:20 Zdjęcie zdjęciu nierówne?25:00 Na co patrzy algorytm?39:45 Kto przygląda się naszej twarzy?55:20 Czy prawo nas obroni?01:00 Chrońmy równość, a nie prywatnośćDo poczytania i posłuchania:Panoptykon 4.0: Jak okiełznać algorytm? Rozmowa z Michałem KosińskimPanoptykon: Odzyskaj twarz! Zbieramy milion podpisów pod Europejską Inicjatywą ObywatelskąPanoptykon: Raport Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczejNature.com: Facial recognition technology can expose political orientation from naturalistic facial imagesJournal of Personality and Social Psychology: Deep neural networks are more accurate than humans at detecting sexual orientation from facial imagesThe Guardian: 'I was shocked it was so easy': meet the professor who says facial recognition can tell if you're gayBusinessinsider: Facial-profiling' could be dangerously inaccurate and biased, experts warnPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Maria Wróblewska Autorka Temat biometria algorytmy media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Orlen kupuje Polska Press… i dostęp do profili ponad 17 mln użytkowników PKN Orlen poinformował, że przejmuje Polska Press – grupę wydawniczą, do której należy wiele regionalnych dzienników, tygodniki i portale internetowe. Te ostatnie mają 17,4 mln użytkowników, których dane Orlen chce wykorzystać do dalszej rozbudowy swoich narzędzi big data. Transakcja wywołała… 08.12.2020 Tekst Artykuł Sztuczna inteligencja pod kontrolą. Europa szykuje przepisy Bez względu na to, czy kibicujemy rozwojowi sztucznej inteligencji i jej obecności „w każdej lodówce”, czy się tego scenariusza obawiamy, jedno możemy przyjąć za pewnik: ta dziedzina wiedzy technicznej, o szerokim zastosowaniu, dopiero się rozkręca i niejednym nas jeszcze zaskoczy. Czekają nas nie… 29.06.2020 Tekst Artykuł Platformy muszą oceniać, jak wpływają na zdrowie, prawa człowieka i demokrację. Analizujemy raport Facebooka Analizujemy pierwsze sprawozdania wielkich platform z oceny systemowych ryzyk. Na pierwszy ogień bierzemy Facebooka. W tym tekście o naszych odkryciach i rozczarowaniach. Najkrócej: Meta widzi zagrożenia związane z działaniem Facebooka, ale nie wszystkie. 09.12.2024 Tekst