Podcast 07.10.2021 2 min. czytania Dźwięk Image Sposób, w jaki wielkie platformy dobierają reklamy do użytkowników, z pozoru jest bardzo prosty: reklamodawca zaznacza, do kogo chce targetować komunikat, a platforma wyświetla treści w najbardziej zaangażowanych grupach. Jednak pomiędzy zleceniem reklamy, a zainteresowaniem produktem zawsze pojawia się człowiek, który interesuje się treściami. Wszystko idzie dobrze, jeśli tylko człowiek dostaje dopasowane do siebie treści, ale co się dzieje, kiedy reklamy zaczynają niepokoić, denerwować, a nawet podkręcać lęki i problemy psychiczne? O badaniu algorytmów traumy rozmawiamy z dr. Piotrem Sapieżyńskim - badaczem z Northeastern University w Bostonie, zajmującym się audytowaniem algorytmów, weryfikowaniem i mierzeniem potencjalnej szkody, jakie komercyjne produkty oparte na sztucznej inteligencji mogą wyrządzić zarówno na skalę społeczną, jak i pojedynczym użytkownikom. Czy podobna sytuacja do tej, opisanej w eksperymencie zdarzyła się również tobie? Czy treści sponsorowane na Facebooku lub innych platformach internetowych mają na ciebie negatywny, krzywdzący wpływ? Wyślij nam swoją historię, nie upublicznimy jej bez twojej zgody: https://crm.panoptykon.org/algorytmy-traumy-twoja-historia Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo. Na skróty: 00:01 Wprowadzenie 04:53 Skąd Facebook wie, jakie reklamy nam pokazać? 08:39 Eksperyment kontrolowania “zainteresowań” 17:14 Rola reklamodawcy w sponsorowaniu treści 23:14 Reakcja Facebooka 29:00 Dyskryminacja w reklamie na Facebooku 39:13 Czy Facebook może oddać kontrolę użytkownikom i użytkowniczkom? 46:25 Subskrypcja na algorytm 52:25 Ciężkie życie naukowca Do poczytania: Panoptykon: Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku Financial Times: Time to turn off Facebook’s digital fire hose Spider’s Web+: Masz swoje cichutkie, ukryte obawy? Facebook sprytnie je odkryje i podsunie takie reklamy, by zmieniły się w lęki Wall Street Journal: Inside TikTok's Algorithm: A WSJ Video Investigation Discrimination through Optimization: How Facebook's Ad Delivery Can Lead to Biased Outcomes Propublica: Dozens of Companies Are Using Facebook to Exclude Older Workers From Job Ads Tim Hwang: Subprime Attention Crisis Podobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613) Audio file Aleksandra Iwańska Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Podcast Projekt Chat Control ma chronić dzieci, ale zagraża szyfrowanej komunikacji. Rozmowa z Michałem „ryśkiem” Woźniakiem Od kilku lat w internecie krąży obrazek autorstwa Johna Jonika. Przedstawiciel amerykańskiej władzy jest w sklepie. Ma przy sobie przy sobie pudełko, w którym znajduje się „kontrola komunikacji w internecie”. Sprzedawca pyta: „jak zapakować – w antyterroryzm czy ochronę dzieci”? 11.01.2024 Dźwięk Artykuł Dzień Kobiet – w Panoptykonie dzień jak co dzień Przymus badań ginekologicznych, rejestr ciąż, dyskryminujące algorytmy uczenia maszynowego, targetowanie reklam politycznych na kobiety w ciąży, aktywistki zatrzymywane przez służby, życie intymne kobiet pod obserwacją firm z branży reklamowej – działania związane z nadzorem nad kobietami to w… 08.03.2023 Tekst Podcast Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim Czy osobowość da się zmierzyć? Co ma wspólnego kartkówka z geografii z psychometrią? Jakie poglądy polityczne mają wielbiciele szybkich samochodów? Skąd mamy wiedzieć, że algorytm się myli? Czy dzięki/przez technologię będziemy żyć w nowym wspaniałym świecie? Gościem podcastu Panoptykon 4.0. jest… 12.09.2019 Dźwięk